본 논문은 대규모 언어 모델(LLM)이 사용자의 감정 상태를 어떻게 모델링하는지, 특히 윤리적인 배포를 위해 이를 이해하는 것이 중요하다는 점을 다룹니다. 감정이 계층적으로 구성된다는 심리학적 틀인 감정 휠(emotion wheel)에서 영감을 받아, 모델 출력에서 감정 상태 간의 확률적 의존성을 분석합니다. 그 결과, LLM이 인간의 심리 모델과 일치하는 계층적 감정 트리를 자연스럽게 형성하며, 더 큰 모델일수록 더 복잡한 계층 구조를 발전시킨다는 것을 발견했습니다. 또한, 사회경제적 페르소나에 따른 감정 인식에서 체계적인 편향을 발견했으며, 교차하는 소외 집단의 경우 오분류가 심화되는 것을 확인했습니다. 인간 연구는 놀라운 유사성을 보여주어 LLM이 사회적 인식의 측면을 내면화한다는 것을 시사합니다. LLM의 감정 추론 능력을 강조하는 것을 넘어, 본 연구 결과는 인지적으로 기반한 이론을 사용하여 더 나은 모델 평가를 개발할 가능성을 시사합니다.