본 논문은 대규모 언어 모델(LLM)의 환각 문제를 완화하기 위해 외부 지식을 통합하는 검색 증강 생성(RAG) 방식에서, 매개변수적 지식과 검색된 맥락 간의 충돌 문제를 해결하는 새로운 방법인 CK-PLUG를 제시합니다. CK-PLUG는 토큰 확률 분포의 엔트로피 변화를 측정하여 지식 충돌을 감지하는 새로운 지식 일관성 지표인 Confidence Gain을 도입합니다. 음의 Confidence Gain을 갖는 토큰의 확률 분포를 단일 조정 매개변수를 통해 조정하여, LLM이 매개변수적 지식과 맥락적 지식에 의존하는 정도를 세밀하게 제어할 수 있도록 합니다. 실험 결과, CK-PLUG는 반실제 RAG 시나리오에서 지식 의존도를 효과적으로 조절하는 동시에 생성 유창성과 지식 정확도를 유지하는 것을 보여줍니다. Llama3-8B를 사용한 실험에서 RAG 응답의 메모리 재현율(MR)을 기준선(42.1%)보다 넓은 범위(9.9%-71.9%)로 조절할 수 있었으며, 다양한 일반적인 RAG 작업에서 일관된 성능 향상을 달성했습니다.