Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning
Created by
Haebom
Category
Empty
저자
Zheng Zhang
개요
본 논문은 대규모 언어 모델(LLM)이 겉보기에는 유창하지만 기호적 추론, 산술 정확성, 논리적 일관성을 요구하는 작업에서 체계적으로 실패하는 현상에 대한 구조적 진단을 제시합니다. 모델이 지식을 접근하는 데 실패하는 것이 아니라 계산 실행에 실패하여 정확한 원리를 이해하는 것과 적용하는 것 사이에 지속적인 격차를 보인다는 것을 발견했습니다. 이 현상을 '계산 분열뇌 증후군'이라고 명명하고, 이를 LLM의 핵심 한계로 규정합니다.
시사점, 한계점
•
LLM은 강력한 패턴 완성 엔진이지만, 원칙적인 구성적 추론을 위한 구조적 기반이 부족합니다.
•
모델의 행동은 이상적인 프롬프트에서도 취약하며, 수학적 연산에서 관계적 추론에 이르기까지 다양한 도메인에서 동일한 한계가 나타납니다.
•
기계적 해석 가능성 연구 결과는 보편적인 계산 원리가 아닌 훈련 특정 패턴 조정을 반영할 수 있습니다.
•
명령과 실행 경로 간의 기하학적 분리는 신경 내성 및 기계적 분석에 대한 한계를 시사합니다.