본 논문은 지식 집약적 분야에서 대규모 언어 모델(LLM)의 성능을 향상시키는 검색 증강 생성(RAG)의 적대적 강건성을 조사합니다. 특히 검색 시스템에 초점을 맞춰, 의료 Q&A에서 225가지의 다양한 설정 조합(말뭉치, 검색기, 질의, 표적 정보)을 통해 검색 시스템이 보편적 중독 공격에 취약함을 보여줍니다. 공격자는 개인 식별 정보와 같은 다양한 표적 정보를 포함하는 중독된 문서를 생성하고, 이를 말뭉치에 삽입하여 공격자가 지정한 질의를 사용하는 모든 사용자가 정확하게 검색되도록 합니다. 이 취약성의 원인을 분석하여 중독된 문서와 질의 간의 임베딩 편차 패턴을 발견하고, 이를 바탕으로 RAG의 안전한 사용을 보장하는 새로운 탐지 기반 방어 기법을 개발합니다. 다양한 Q&A 영역에서의 광범위한 실험을 통해 제안된 방법이 거의 모든 경우에 우수한 탐지율을 달성함을 확인했습니다.