본 논문은 대규모 언어 모델(LLM)이 인간의 의사결정 과정을 얼마나 정확하게 이해하는지 실험적으로 검증한다. 기존 연구는 LLM이 인간 행동을 사실적으로 모방한다고 시사했으나, 본 연구는 GPT-4, Llama, Claude 등 최신 LLM들이 인간보다 더 합리적인 의사결정을 한다고 가정한다는 것을 밝혔다. 이는 LLM이 기대값 이론과 같은 합리적 선택 모델에 더 가깝게 의존하며, 실제 인간의 비합리적인 선택을 제대로 반영하지 못함을 의미한다. 흥미롭게도, 인간 또한 타인의 행동을 해석할 때 합리성을 가정하는 경향이 있으며, 이는 LLM의 추론과 높은 상관관계를 보인다. 결론적으로, LLM의 내재적 의사결정 모델은 실제 인간 행동보다는 인간이 타인의 합리성에 대한 기대치에 더 부합한다.