Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning

Created by
  • Haebom
Category
Empty

저자

Zheng Zhang

개요

본 논문은 대규모 언어 모델(LLM)이 겉보기에는 유창하지만 기호적 추론, 산술 정확성, 논리적 일관성을 요구하는 작업에서 체계적으로 실패하는 현상에 대한 구조적 진단을 제시합니다. 모델이 지식을 접근하는 데 실패하는 것이 아니라 계산 실행에 실패하여 정확한 원리를 이해하는 것과 적용하는 것 사이에 지속적인 격차를 보인다는 것을 발견했습니다. 이 현상을 '계산 분열뇌 증후군'이라고 명명하고, 이를 LLM의 핵심 한계로 규정합니다.

시사점, 한계점

LLM은 강력한 패턴 완성 엔진이지만, 원칙적인 구성적 추론을 위한 구조적 기반이 부족합니다.
모델의 행동은 이상적인 프롬프트에서도 취약하며, 수학적 연산에서 관계적 추론에 이르기까지 다양한 도메인에서 동일한 한계가 나타납니다.
기계적 해석 가능성 연구 결과는 보편적인 계산 원리가 아닌 훈련 특정 패턴 조정을 반영할 수 있습니다.
명령과 실행 경로 간의 기하학적 분리는 신경 내성 및 기계적 분석에 대한 한계를 시사합니다.
향후 모델은 메타인지 제어, 원리 향상 및 구조적으로 기반한 실행을 갖춰야 합니다.
👍