Retrieval-augmented generation (RAG)은 LLM의 입력 프롬프트에 외부 지식을 통합하여 LLM의 역량을 강화합니다. 그러나, 검색된 컨텍스트가 LLM의 파라메트릭 지식과 상충될 경우, 부정확한 외부 컨텍스트와 올바른 파라메트릭 지식 간의 충돌을 해결하지 못하는 경우가 많습니다. 이 문제를 해결하기 위해, 컨텍스트 평가자 및 기본 LLM으로 구성된 Conflict-Aware REtrieval-Augmented Generation (CARE)을 제안합니다. 컨텍스트 평가자는 원시 컨텍스트 토큰으로부터 압축된 메모리 토큰 임베딩을 인코딩합니다. grounded/adversarial soft prompting을 통해 컨텍스트 평가자는 신뢰할 수 없는 컨텍스트를 구별하고, 더 신뢰할 수 있는 지식 소스로의 추론을 안내하는 지침 신호를 포착하도록 훈련됩니다. 광범위한 실험 결과 CARE가 컨텍스트-메모리 충돌을 효과적으로 완화하여 QA 및 팩트 체크 벤치마크에서 평균 5.0%의 성능 향상을 보이며, 신뢰할 수 있고 적응 가능한 RAG 시스템을 위한 유망한 방향을 제시합니다.