본 논문은 대규모 언어 모델(LLM)이 여러 출처의 상반되는 지식(특히, 상호 문맥 지식 충돌)을 다룰 때 겪는 어려움을 해결하기 위해 지식 충돌 추론(KCR) 프레임워크를 제안합니다. KCR은 상반되는 긴 문맥이 주어졌을 때, 논리적 일관성이 더 강한 문맥을 선택하고 준수하도록 LLM을 강화 학습을 통해 훈련시키는 것을 핵심 아이디어로 합니다. 먼저 상반되는 긴 문맥에서 텍스트 또는 지역 지식 그래프로 표현되는 추론 경로를 추출하고, 강화 학습을 통해 모델이 올바른 추론 경로를 따르는 추론 과정을 학습하도록 유도합니다. 실험 결과, KCR 프레임워크는 다양한 LLM의 긴 문맥 내 지식 충돌 해결 능력을 크게 향상시키는 것으로 나타났습니다.