Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LLMs model how humans induce logically structured rules

Created by
  • Haebom

저자

Alyssa Loo, Ellie Pavlick, Roman Feiman

개요

본 논문은 인지 과학에서 인간의 사고 구조와 발달에 대한 계산적으로 명시적인 설명을 제공하는 것을 중심 목표로 삼고, 특히 추상적인 인지 기능(언어, 논리 등) 영역에서 인공 신경망의 적절성에 대한 오랜 논쟁을 다룬다. 논문은 대규모 언어 모델(LLM)의 발전이 이 논쟁에 중요한 변화를 가져왔다고 주장한다. 논리적 개념에 대한 규칙 유도 연구에 사용되는 기존 실험 패러다임을 통해 여러 LLM을 검증한 결과, LLM이 베이지안 확률적 사고 언어(pLoT) 모델만큼 인간 행동과 잘 맞는다는 것을 발견했다. 더 나아가 LLM은 규칙의 본질에 대해 pLoT와 질적으로 다른 예측을 하며, LLM이 단순히 pLoT의 구현체가 아니라는 것을 시사한다. 따라서 LLM이 인간의 논리적 개념을 설명하는 데 필요한 원시적 표상과 계산에 대한 새로운 이론적 설명을 제시할 수 있으며, 향후 인지 과학 연구에서 이를 다루어야 한다고 주장한다.

시사점, 한계점

시사점:
대규모 언어 모델(LLM)이 인간의 논리적 추론 과정을 설명하는 데 있어 기존의 베이지안 확률적 사고 언어(pLoT) 모델에 필적하는 성능을 보임.
LLM이 인간의 인지 과정에 대한 새로운 이론적 설명을 제공할 가능성 제시.
인지 과학 연구에 LLM을 활용하는 새로운 연구 방향 제시.
한계점:
LLM이 인간의 인지 과정을 완벽하게 설명하는지는 추가 연구가 필요함.
LLM의 내부 작동 원리를 완전히 이해하지 못하고 있음.
LLM이 제시하는 새로운 이론적 설명의 일반화 가능성 및 한계에 대한 추가 연구 필요.
👍