본 논문은 대규모 언어 모델(LLM)의 인종적 편향성을 완화하기 위한 연구를 다룬다. 입학 및 채용이라는 의사결정 과제를 통해 Gemma 2B Instruct와 LLaMA 3.2 3B Instruct 모델의 편향성을 분석하였다. 실험 결과, 두 모델 모두 인종에 따라 차별적인 결과를 보였으며, 프롬프트 엔지니어링으로는 편향성을 제거하는 데 실패했다. 반면, 분산 정렬 검색을 이용하여 모델 활성화 내의 "인종 하위 공간"을 식별하고 조작함으로써 Gemma 모델의 편향성을 37-57% 감소시키는 데 성공했다. 하지만, 인종 하위 공간의 일반화에는 한계가 있음을 발견하였다. 결론적으로, 기계적인 접근 방식이 LLM의 공정성 향상에 유용할 수 있지만, 보편적인 인종 표현은 아직 요원하다는 점을 시사한다.