본 논문은 대규모 언어 모델(LLM)의 사고 과정(CoT) 패러다임의 효율성 문제를 해결하기 위해 암묵적 기억 모듈(IMM)을 통합하는 프레임워크를 제안합니다. 기존 CoT 방식은 자연어로 명시적인 추론 단계를 생성하지만 계산 비용이 높다는 한계가 있습니다. 본 논문에서는 인간의 암묵적 기억을 모방하여 LLM의 내부 추론 과정에 IMM을 통합함으로써, 간단한 GPT 모델에서 35%~57%의 훈련 손실 감소를 달성했습니다. 또한, 명시적인 해석 채널 추가도 용이하다고 언급하며, IMM의 확장 가능성과 향후 연구 방향을 제시합니다.