본 논문은 대규모 언어 모델(LLM)의 안전성을 확보하고 윤리적인 행동을 촉진하기 위해, 인간의 도덕적 판단을 모방하는 새로운 접근 방식인 ClarityEthic을 제시합니다. LLM이 대규모 데이터를 통해 가치 판단을 직접 학습하는 것은 신뢰할 수 없고 설명이 불가능하다는 점을 고려하여, 인간이 사회적 규범에 의존하여 도덕적 결정을 내리는 방식을 모방하는 전략을 채택했습니다. 다양한 관점에서 관련 사회적 규범을 발견하고 가장 신뢰할 수 있는 규범을 선택하여 판단 정확도를 높이기 위해, LLM의 추론 능력과 대조 학습을 활용합니다. 실험 결과, ClarityEthic은 기존 방법보다 도덕적 판단 과제에서 우수한 성능을 보였으며, 생성된 사회적 규범은 인간 평가에서도 타당한 설명으로 인정되었습니다.