본 논문은 대규모 언어 모델(LLM)의 자기 수정을 통해 사회적 편향을 줄이는 방법을 제시합니다. LLM의 자기 수정은 인지 심리학의 System-2 사고와 유사하게 작동하여 편향 감소에 기여할 수 있습니다. 논문에서는 자기 수정 과정을 지시(instruction), 응답(response), 피드백(feedback) 세 단계로 나누고, 각 단계에서 의도를 명확히 하는 것이 중요하다고 주장합니다. 특히, 편향 완화 의도를 명시적으로 전달하는 편향 완화 프롬프트를 사용하고, Chain-of-Thought(CoT)를 통해 추론 과정을 명확히 하며, 다양한 측면을 고려한 평가와 피드백을 제공하는 방법을 제시합니다. 실험 결과, 제안된 방법이 기존 방법보다 더 강력하고 일관되게 편향된 응답을 줄이는 것을 보여줍니다. 또한, 모델의 편향 수준이나 응답 및 피드백 생성 모델 분리에 따른 편향 감소 효과의 차이를 분석합니다.