Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Cognitive Foundations for Reasoning and Their Manifestation in LLMs

Created by
  • Haebom
Category
Empty

저자

Priyanka Kargupta, Shuyue Stella Li, Haocheng Wang, Jinu Lee, Shan Chen, Orevaoghene Ahia, Dean Light, Thomas L. Griffiths, Max Kleiman-Weiner, Jiawei Han, Asli Celikyilmaz, Yulia Tsvetkov

개요

본 논문은 대규모 언어 모델(LLM)이 복잡한 문제는 해결하지만 간단한 변형에는 실패하는 현상을 분석하며, 인간의 추론 방식과 근본적으로 다른 메커니즘을 통해 정답을 도출한다는 점을 지적한다. 인지 과학 연구를 기반으로 28개의 인지 요소(계산적 제약, 메타인지적 통제, 지식 표현, 변환 연산)를 포함하는 분류 체계를 구축하고, 170,000개의 LLM 추론 흔적과 54개의 인간 사고 과정 흔적을 분석하여 구조적 차이점을 밝힌다. 특히, 인간은 계층적 중첩과 메타인지적 모니터링을 사용하는 반면, LLM은 얕은 순방향 체이닝에 의존하며, 비정형 문제에서 이러한 차이가 두드러진다. 또한, LLM 관련 연구의 메타 분석을 통해 연구 커뮤니티가 정량화 가능한 행동(순차적 구성, 분해)에 집중하고, 성공과 관련된 메타인지적 통제(자기 인식, 평가)를 간과한다는 점을 강조한다. 이러한 패턴을 활용하여, 성공적인 구조를 자동으로 스캐폴딩하는 테스트 시간 추론 지침을 개발하고, 복잡한 문제에 대한 성능을 최대 60%까지 향상시킨다. 본 연구는 인지 과학과 LLM 연구를 연결하여, 취약한 추론 지름길이나 암기 대신 원칙적인 인지 메커니즘을 통해 추론하는 모델 개발의 기반을 마련한다.

시사점, 한계점

시사점:
LLM의 추론 방식이 인간과 근본적으로 다르다는 점을 밝힘.
LLM의 추론 과정에서 메타인지적 통제의 중요성을 강조함.
LLM 연구의 방향성을 제시하고, 테스트 시간 추론 지침 개발을 통해 성능 향상을 이끌어냄.
인지 과학과 LLM 연구의 융합을 통해 새로운 연구 방향을 제시함.
한계점:
구체적인 모델 및 데이터셋에 대한 정보가 제한적일 수 있음.
연구 결과의 일반화 가능성에 대한 추가적인 검증이 필요할 수 있음.
제안된 테스트 시간 추론 지침의 효율성이 모든 유형의 문제에 적용될 수 있는지는 추가적인 연구가 필요함.
👍