본 논문은 대규모 언어 모델(LLM)을 장기 기증과 같은 중요한 의사결정에 통합하는 것에 대한 윤리적 문제점을 다룹니다. 연구진은 신장 배분 시나리오에서 여러 주요 LLM의 행동을 인간의 선호도와 비교하여 평가했습니다. 그 결과 LLM은 인간의 가치와는 크게 다른 속성 우선순위를 보였고, 인간과 달리 대안적인 미결정 메커니즘(예: 동전 던지기)이 제공되더라도 결정적 결정을 내리는 경향이 있음을 보여주었습니다. 그러나 소량의 데이터를 이용한 저차원 감독 미세 조정을 통해 의사 결정 일관성을 개선하고 미결정 모델링을 보정하는 데 효과적임을 보였습니다. 이러한 결과는 도덕적/윤리적 영역에서 LLM에 대한 명시적인 정렬 전략의 필요성을 보여줍니다.