Sign In

Large Language Models Assume People are More Rational than We Really are

Created by
  • Haebom
Category
Empty

저자

Ryan Liu, Jiayi Geng, Joshua C. Peterson, Ilia Sucholutsky, Thomas L. Griffiths

개요

본 논문은 대규모 언어 모델(LLM)이 인간의 의사결정 과정을 얼마나 정확하게 이해하는지 실험적으로 검증한다. 기존 연구는 LLM이 인간 행동을 사실적으로 모방한다고 시사했으나, 본 연구는 GPT-4, Llama, Claude 등 최신 LLM들이 인간보다 더 합리적인 의사결정을 한다고 가정한다는 것을 밝혔다. 이는 LLM이 기대값 이론과 같은 합리적 선택 모델에 더 가깝게 의존하며, 실제 인간의 비합리적인 선택을 제대로 반영하지 못함을 의미한다. 흥미롭게도, 인간 또한 타인의 행동을 해석할 때 합리성을 가정하는 경향이 있으며, 이는 LLM의 추론과 높은 상관관계를 보인다. 결론적으로, LLM의 내재적 의사결정 모델은 실제 인간 행동보다는 인간이 타인의 합리성에 대한 기대치에 더 부합한다.

시사점, 한계점

시사점:
LLM의 인간 행동 모방 능력에 대한 기존 연구 결과의 재검토 필요성 제기.
LLM이 인간의 비합리성을 제대로 반영하지 못한다는 사실 규명.
LLM과 인간의 타인 행동 해석에 대한 상관관계 발견.
LLM 개발 시 인간의 비합리적 의사결정 모델을 더욱 정확하게 반영해야 함을 시사.
한계점:
사용된 데이터셋의 일반화 가능성에 대한 추가 검토 필요.
다양한 종류의 의사결정 상황에 대한 LLM의 성능 평가 추가 필요.
LLM의 비합리적 의사결정 모델 학습 방안에 대한 추가 연구 필요.
👍