본 논문은 대규모 언어 모델(LLM)이 잘못된 전제를 포함한 사용자 질의에 대해 환각(hallucination) 응답을 생성하는 문제를 해결하기 위한 새로운 접근 방식을 제안합니다. 기존의 사전 훈련, 미세 조정, 추론 시점 기법들은 계산 비용이 많이 들거나, 방대한 훈련 데이터를 필요로 하거나, 생성 전에 환각을 예방하는 사전 예방 메커니즘이 부족한 한계가 있습니다. 본 논문에서 제안하는 방법은 사용자 질의를 논리적 표현으로 변환하고, 검색 증강 생성(RAG)을 사용하여 사실적 근거를 바탕으로 각 전제의 유효성을 평가합니다. 그런 다음 검증 결과를 LLM 프롬프트에 통합하여 최종 출력의 사실적 일관성을 유지합니다. 실험 결과, 이 방법은 환각을 효과적으로 줄이고 사실적 정확도를 향상시키며, 모델 로짓에 대한 접근이나 대규모 미세 조정이 필요하지 않음을 보여줍니다.