본 논문은 대규모 언어 모델(LLM)이 인간의 합리성 판단 패턴을 학습할 수 있는지 여부를 조사한다. 1만 건 이상의 시뮬레이션된 판단을 통해 인간과 모델을 비교하는 무작위 대조 실험을 사용하여 특정 모델이 표면적인 반응뿐만 아니라 잠재적인 기저 의사결정 구조를 포착한다는 것을 보여준다. 놀랍게도, 이러한 시스템은 과실 판단에서 경제적 효율성보다 사회적 신호를 우선시하는데, 이는 교과서적 처리와는 상반되지만 인간의 행동을 반영한다. 이러한 결과는 판사가 더 넓은 패턴에 대한 직관을 보정하고, 입법자는 정책 해석을 테스트하고, 자원이 부족한 소송 당사자는 주장의 수용을 미리 예측할 수 있는 실용적인 응용 프로그램을 시사한다. AI 에이전트가 점점 더 자율적인 실제 세계 결정을 내림에 따라, 그들이 인식 가능한 윤리적 프레임워크를 내면화했는지 여부를 이해하는 것은 그들의 행동을 예측하는 데 필수적이다.