인간은 도덕적 딜레마에 직면했을 때 상당한 불확실성을 나타내지만, 기계와 AI 에이전트의 이러한 불확실성은 제대로 탐구되지 않았다. 이 연구는 32개의 오픈 소스 모델과 9개의 도덕적 차원에서 불확실성이 고전적인 트롤리 문제에서 도덕적 결정에 미치는 영향을 조사한다. 모델 아키텍처 및 훈련 방법론에 따라 불확실성이 주로 결정됨을 발견했으며, 이진 엔트로피를 불확실성 측정 지표로 사용했다. 모델에 "dropout"을 통해 확률성을 도입하여 상호 정보 증가를 통해 전체 엔트로피를 증가시키고, 조건부 엔트로피는 거의 변하지 않음을 확인했다. 이 메커니즘은 상호 정보와 정렬 점수 이동의 상관관계와 함께 인간-LLM 도덕적 정렬을 크게 개선했다. 이 연구는 불확실성을 의도적으로 조절하여 모델 생성 결정과 인간 선호도를 더 잘 정렬할 수 있음을 보여준다.