본 논문은 대규모 언어 모델(LLM)이 정치, 비즈니스, 교육 등 중요한 분야에서 널리 사용되고 있지만, 그들의 규범적 윤리 판단의 본질은 불투명하다는 문제의식에서 출발합니다. 기존의 정렬(alignment) 연구가 도덕 심리학 분야의 관점과 통찰력을 충분히 활용하지 못했음을 지적하며, Jonathan Haidt의 영향력 있는 도덕 기반 이론(MFT)을 사용하여 다양한 모델의 가치 판단을 이끌어내는 합성 실험을 수행합니다. 여러 모델 제공업체의 다양한 모델을 대상으로, 인간 기준선에 대한 LLM 응답의 편향과 분산을 기술 통계적 접근 방식으로 분석합니다. 실험 결과는 모델 간, 그리고 국가 대표 인간 기준선과 다른 도덕적 기반에 의존하며, 모델의 성능이 향상될수록 이러한 차이가 커진다는 것을 보여줍니다. 본 연구는 MFT를 활용한 LLM 분석(오픈 소스 모델 미세 조정 포함)을 촉진하고, LLM 정렬을 위한 도덕적 기반의 중요성에 대한 정책 입안자들의 심도 있는 논의를 이끌어내는 것을 목표로 합니다.