Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Cognitive Foundations for Reasoning and Their Manifestation in LLMs

Created by
  • Haebom
Category
Empty

저자

Priyanka Kargupta, Shuyue Stella Li, Haocheng Wang, Jinu Lee, Shan Chen, Orevaoghene Ahia, Dean Light, Thomas L. Griffiths, Max Kleiman-Weiner, Jiawei Han, Asli Celikyilmaz, Yulia Tsvetkov

개요

대규모 언어 모델(LLM)은 복잡한 문제는 해결하지만 더 간단한 변형 문제에 실패하는 경향이 있으며, 이는 인간의 추론 방식과는 근본적으로 다른 메커니즘을 통해 정답을 도출함을 시사한다. 이 논문은 이러한 격차를 이해하기 위해 인지 과학 연구를 종합하여 추론 불변량, 메타 인지 제어, 추론 및 지식 구성을 위한 표현, 변환 연산 등을 포함하는 28개의 인지 요소 분류 체계를 제시한다. 18개 모델의 192,000개 추적, 54개의 인간 사고 과정 추적에 대한 대규모 실험적 분석을 수행하여, 성공과 연관된 인지 요소의 부족, 특히 메타 인지 제어의 부족을 발견했다. 또한, 테스트 시간 추론 지침을 개발하여 복잡한 문제의 성능을 최대 66.7%까지 향상시켰다. 이 연구는 인지 과학과 LLM 연구 간의 공유 어휘를 구축하여 추론 실패를 체계적으로 진단하고, 견고한 인지 메커니즘을 통해 추론하는 모델 개발을 가능하게 한다.

시사점, 한계점

시사점:
LLM의 추론 실패 원인을 인간의 인지 과정을 기반으로 분석하고, 개선 방향 제시.
메타 인지 제어와 다양한 표현의 중요성을 강조.
성공적인 구조를 자동으로 스캐폴딩하는 테스트 시간 추론 지침 개발 및 성능 향상 입증.
인지 과학과 LLM 연구 간의 융합을 위한 프레임워크 제시.
한계점:
연구가 특정 모델 및 문제 유형에 편향되었을 수 있음.
제시된 인지 요소 분류 체계가 완전하지 않을 수 있음.
테스트 시간 추론 지침의 일반화 가능성 추가 연구 필요.
인간 사고 과정 추적 샘플 수가 상대적으로 적음.
👍