본 논문은 최신 대규모 언어 모델(LLM)이 추론 과정에서 여러 유형의 편향을 동시에 사용하여 일반화 성능이 저하되는 문제를 다룬다. 기존의 편향 평가 벤치마크는 하나의 데이터에 하나의 편향만 포함하는 반면, 실제 응용에서는 하나의 데이터에 여러 유형의 편향이 공존한다는 점에 착안하여, 다섯 가지 유형의 편향을 포함하는 다중 편향 벤치마크를 제안한다. 기존 LLM과 편향 제거 방법들의 성능이 미흡함을 보이고, 이를 해결하기 위해 다중 편향 제거 방법(CMBE)을 제시한다. CMBE는 여러 유형의 편향의 인과 효과를 동시에 추정하고, 추론 과정에서 의미 정보와 편향이 미치는 총 인과 효과에서 편향의 인과 효과를 제거한다. 실험 결과, CMBE가 여러 유형의 편향을 효과적으로 제거하여 LLM의 일반화 성능을 향상시킴을 보여준다.