Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Do Large Language Models Exhibit Cognitive Dissonance? Studying the Difference Between Revealed Beliefs and Stated Answers

Created by
  • Haebom

저자

Manuel Mondal, Ljiljana Dolamic, Gerome Bovet, Philippe Cudre-Mauroux, Julien Audiffren

개요

본 논문은 대규모 언어 모델(LLM)의 능력 평가에 널리 사용되는 다지선다형 문제(MCQ) 평가 방식의 한계를 지적하고, 새로운 평가 프레임워크인 'Revealed Belief'를 제시합니다. Revealed Belief는 LLM의 텍스트 완성 확률 분포를 분석하여 불확실성 하에서의 추론 능력을 평가합니다. 기존 MCQ 평가 방식은 LLM이 정답을 제시하는지 여부에만 초점을 맞추지만, Revealed Belief는 LLM이 확률을 일관되게 할당하고, 새로운 증거에 따라 믿음을 적절하게 갱신하는지 여부까지 평가합니다.

시사점, 한계점

시사점: LLM의 추론 능력에 대한 기존 MCQ 기반 평가의 부족함을 지적하고, 더욱 포괄적인 평가 방식의 필요성을 강조합니다. LLM의 'Stated Answer'와 'Revealed Belief' 간의 차이를 분석하여 LLM의 내부적인 확률 분포 및 추론 과정에 대한 이해를 높일 수 있습니다. 하류 작업에 대한 LLM의 성능에 대한 새로운 시각을 제공합니다.
한계점: Revealed Belief 프레임워크의 일반화 가능성 및 다양한 LLM 아키텍처 및 작업에 대한 적용 가능성에 대한 추가 연구가 필요합니다. 텍스트 완성 확률 분포 분석의 해석에 대한 주관성이 존재할 수 있습니다. 새로운 평가 프레임워크의 계산 비용 및 복잡성에 대한 고려가 필요합니다.
👍