본 논문은 실세계 적용에서 자율성을 갖는 대규모 언어 모델(LLM)의 행동 방식, 특히 도덕적 딜레마에 직면했을 때 인간의 판단과 얼마나 일치하는지에 대한 연구를 다룹니다. 다양한 사회인구학적 특성을 반영하는 페르소나를 포함한 도덕적 기계 실험의 여러 맥락에서 LLM 주도적 결정과 인간의 판단 간의 정렬을 조사합니다. 연구 결과, LLM의 도덕적 결정은 페르소나에 따라 크게 달라지며, 인간보다 중요한 과제에서 도덕적 결정의 변화가 더 크게 나타납니다. 또한 정치적 페르소나가 LLM 결정의 방향과 정도를 좌우하는 당파적 분류 현상이 나타남을 보여줍니다. 마지막으로 도덕적 결정을 포함하는 응용 프로그램에 이러한 모델을 배포하는 것과 관련된 윤리적 함의와 위험에 대해 논의합니다.