본 논문은 대규모 언어 모델(LLM)의 신뢰성에 심각한 위협이 되는 텍스트 편향 문제를 해결하기 위해 다중 에이전트 프레임워크를 제안합니다. 이 프레임워크는 각 문장을 사실 또는 의견으로 분리하고, 편향 강도 점수를 할당하며, 간결하고 사실적인 정당성을 제공함으로써 체계적으로 편향을 식별합니다. WikiNPOV 데이터셋의 1,500개 샘플을 평가한 결과, 제로샷 기준선보다 13.0% 향상된 84.9%의 정확도를 달성하여 사실 대 의견을 명시적으로 모델링하는 것이 편향 강도를 정량화하는 데 효과적임을 보여줍니다. 향상된 탐지 정확도와 해석 가능한 설명을 결합함으로써 현대 언어 모델의 공정성과 책임성을 높이는 기반을 마련합니다.