대규모 언어 모델(LLM)이 다양한 지역 및 문화 전반의 진화하는 인간 가치에 맞춰지는 것은 AI 윤리에서 중요한 과제이다. 본 논문에서는 숙고적 윤리적 추론을 통해 다양한 인간 가치 정렬을 향상시키는 것을 목표로 하는, 잘 확립된 윤리적 의사 결정 모델에서 영감을 얻은 LLM을 위한 새로운 윤리적 추론 패러다임을 제안한다. 제안된 프레임워크는 상황적 사실 수집, 계층적 사회 규범 식별, 옵션 생성, 다중 렌즈 윤리적 영향 분석 및 반성을 포함하는 5단계 프로세스로 구성된다. 이 이론에 기반한 접근 방식은 LLM이 지역적 특성을 이해하고 미묘한 윤리적 분석을 수행할 수 있도록 안내하며, 프롬프트 엔지니어링 또는 감독된 미세 조정 방법을 사용하여 구현할 수 있다. SafeWorld 벤치마크를 통해 평가를 수행한 결과, 제안된 프레임워크가 다양한 인간 가치에 대한 LLM 정렬을 크게 향상시켜, 보다 정확한 사회 규범 식별과 문화적으로 적절한 추론을 가능하게 함을 입증했다.