Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Language Models Might Not Understand You: Evaluating Theory of Mind via Story Prompting

Created by
  • Haebom

저자

Nathaniel Getachew, Abulhair Saparov

개요

StorySim은 대규모 언어 모델(LLM)의 이론적 마음(ToM)과 세계 모델링(WM) 능력을 평가하기 위한 합성 이야기 생성 프레임워크입니다. 기존 벤치마크의 사전 훈련 데이터 오염 문제를 해결하기 위해, StorySim은 제어 가능한 스토리보드를 기반으로 새롭고 구성적인 이야기 프롬프트를 생성하여 등장인물의 관점과 사건을 정밀하게 조작합니다. 이를 통해 1차 및 2차 ToM 과제와 정신 상태 추적 및 모델링 능력을 제어하는 WM 과제를 설계했습니다. 다양한 최첨단 LLM을 대상으로 한 실험 결과, 대부분의 모델은 WM 과제에서 ToM 과제보다 더 나은 성능을 보였으며, 무생물보다는 사람과의 추론에서 더 나은 성능을 보이는 경향이 있었습니다. 또한, 최근 편향이나 이야기 초반 사건에 대한 과도한 의존과 같은 휴리스틱 행동의 증거를 발견했습니다. 데이터 생성 및 평가를 위한 모든 코드는 공개적으로 제공됩니다.

시사점, 한계점

시사점:
LLM의 ToM 및 WM 능력 평가를 위한 새로운 프레임워크인 StorySim 제시.
기존 벤치마크의 한계점인 데이터 오염 문제 해결.
LLM의 ToM 및 WM 능력의 차이점과 휴리스틱 행동 패턴 발견.
공개된 코드를 통한 재현성 및 확장성 확보.
한계점:
StorySim의 일반화 능력에 대한 추가 연구 필요.
다양한 유형의 LLM 및 ToM/WM 과제에 대한 추가 실험 필요.
휴리스틱 행동의 원인에 대한 심층적인 분석 필요.
👍