본 논문은 대규모 언어 모델(LLM)의 편향성 문제를 해결하기 위해 지식 그래프 증강 훈련(KGAT) 기법을 제시합니다. 기존 LLM들이 훈련 데이터의 편향성을 상속 및 증폭시키는 문제점을 해결하고자, 실세계 지식 그래프의 구조화된 도메인 특정 지식을 활용하여 모델의 이해도를 높이고 편향된 출력을 줄이는 방법을 연구합니다. Gender Shades, Bias in Bios, FairFace와 같은 공개 데이터셋과 인구 통계적 형평성, 동등한 기회와 같은 지표를 사용하여 편향성을 평가하고, 표적화된 완화 전략을 통해 편향된 연관성을 수정하여 편향된 출력을 크게 줄이고 편향성 지표를 개선하는 결과를 보여줍니다. 실제 데이터셋과 지식 그래프를 활용하여 확장성과 효율성을 갖춘 프레임워크를 제시하며, 민감하고 중요한 응용 분야에서의 책임감 있는 배포를 위한 길을 열고 있습니다.