대규모 언어 모델(LLM)이 경제 및 조직 프로세스에 점점 더 많이 관여하면서(자동 고객 지원, 채용, 투자 조언, 정책 분석 등), 이러한 시스템이 인간의 오류가 없는 합리적인 의사 결정을 수행한다고 가정하는 경우가 많다. 그러나 LLM은 인지적 및 사회적 편견이 내포된 인간 언어 데이터를 기반으로 훈련된다. 본 연구는 첨단 LLM이 고전적인 의사 결정 문제에 직면했을 때 합리적인 행위자처럼 행동하는지, 아니면 인간의 행동 경향을 재현하는지를 조사한다. 행동 경제학의 두 가지 전형적인 실험(최후통첩 게임 및 도박 게임)을 사용하여, Google Gemma7B 및 Qwen 두 가지 최첨단 모델로부터 중립적이고 성별 조건부 프롬프트 하에서 의사 결정을 유도했다. 불평등 혐오와 손실 회피의 매개변수를 추정하여 인간 벤치마크와 비교했다. 모델은 완화되었지만 지속적인 비합리성을 보였으며, 적당한 공정성, 경미한 손실 회피, 그리고 미묘한 성별 조건부 차이를 나타냈다.