본 논문은 지식 집약적인 NLP 작업에서 대규모 언어 모델(LLM)의 성능 저하 문제를 해결하기 위해, 검색 증강 생성(RAG) 기법을 개선하는 방법을 제안합니다. 기존 RAG 방법은 검색된 문서를 모델에 추가적으로 제공하는 방식으로, 훈련 데이터의 부족이나 오래된 정보로 인한 문제를 완화하지만, 잘못된 훈련 데이터로 인한 환각(hallucination) 현상이 발생할 수 있습니다. 본 논문에서는 모델이 자체적으로 생성한 데모 데이터를 이용하여 RAG 기반 LLM을 훈련하는 방법을 제시합니다. 이를 통해 분포 외 데이터로 인한 문제를 해결하고, 검색 결과를 LLM 응답에 효과적으로 통합합니다. 지식 집약적인 질의응답 과제에 대한 실험 결과, 제안된 방법이 기존 RAG 방법보다 성능이 우수하며, 일반적인(비 RAG) 설정에서도 성능 저하 없이 동작함을 보여줍니다.