본 논문은 대규모 언어 모델(LLM)이 표면적으로는 유창하지만, 기호 추론, 산술 정확성, 논리적 일관성을 요구하는 작업에서는 체계적으로 실패하는 현상을 다룬다. 제어된 실험과 아키텍처 분석을 통해, LLM이 올바른 원리를 표현하면서도 그것을 안정적으로 적용하지 못하는 현상, 즉 이해와 능력 사이의 지속적인 격차를 보여준다. 이는 지식 접근이 아닌 계산 실행에 근본적인 문제가 있음을 시사한다. 이러한 현상을 계산적 '분리뇌 증후군'이라 명명하며, 이는 수학 연산부터 관계 추론에 이르기까지 다양한 영역에서 반복되며, 이상적인 프롬프트 하에서도 모델의 행동이 불안정한 이유를 설명한다. LLM은 강력한 패턴 완성 엔진으로 기능하지만, 원칙적이고 구성적인 추론을 위한 아키텍처적 기반이 부족하다고 주장한다. 본 연구는 현재 LLM의 능력 한계를 명확히 하고, 메타인지 제어, 원리 상향, 구조적으로 기반을 둔 실행 기능을 갖춘 미래 모델을 위한 방향을 제시한다. 또한, 기계적 해석 가능성 연구 결과가 보편적인 계산 원리가 아닌 훈련 특유의 패턴 조정을 반영할 수 있으며, 지시와 실행 경로 간의 기하학적 분리가 신경적 자기 반성과 기계적 분석의 한계를 시사한다는 점을 명확히 한다.