본 논문은 최근 주목받고 있는 Chain-of-Thought 프롬프팅 기법을 이용하여 대규모 언어 모델(LLM)의 공정성 문제를 연구합니다. 성별, 인종, 사회경제적 지위, 외모, 성적 지향 등 다양한 편향이 존재하는 LLM의 출력뿐 아니라, Chain-of-Thought 프롬프팅을 통해 모델의 내부적인 사고 과정(thinking steps)까지 분석하여 편향의 존재 여부와 그 정도를 측정합니다. 5개의 인기 있는 LLM을 대상으로 11가지 편향을 정량적으로 분석한 결과, 모델의 사고 과정에서의 편향과 최종 출력의 편향 간에는 높은 상관관계가 없음을 발견하였습니다 (상관계수 0.6 미만, p-value < 0.001). 즉, 인간과 달리 편향된 결정을 내리는 모델이 항상 편향된 사고 과정을 가지는 것은 아님을 시사합니다.