본 논문은 지식 집약적 과제에서 대규모 언어 모델(LLM)이 내부 매개변수 지식에 의존하여 제공된 맥락을 무시하는 '지식 충돌' 문제를 해결하기 위해 자기 개선 신뢰성 인식 대조 조정(Self Improving Faithfulness Aware Contrastive Tuning, SI FACT) 프레임워크를 제안한다. SI FACT는 자기 지시 메커니즘을 통해 고품질의 구조화된 대조 학습 데이터(앵커 샘플, 의미적으로 동등한 양성 샘플, 불신실한 시나리오를 모방한 음성 샘플)를 자동으로 생성하여 수동 주석 비용을 크게 줄인다. 이후 대조 학습을 통해 신뢰할 수 있는 응답은 가깝게, 신뢰할 수 없는 응답은 멀리 배치하여 모델을 훈련한다. Llama3 8B Instruct 기반의 SI FACT 모델은 ECARE KRE 및 COSE KRE 벤치마크에서 최고 기준 모델 대비 문맥 재현율을 6.2% 향상시키고 내부 메모리 의존성을 크게 줄이는 효과를 보였다. 이는 SI FACT가 LLM의 문맥적 신뢰성을 향상시키는 데 효과적이고 데이터 효율적이며, 더욱 적극적이고 신뢰할 수 있는 언어 모델을 구축하는 실용적인 방법을 제시함을 의미한다.