본 논문은 Retrieval-Augmented Generation (RAG) 기반 대규모 언어 모델(LLM)의 취약점을 해결하기 위해 새로운 공격 기법인 Coordinated Prompt-RAG attack (PR-attack)을 제안합니다. 기존 공격 방법의 한계점인 제한된 독성 텍스트 수, 낮은 은닉성, 그리고 휴리스틱 기반 접근 방식의 문제점을 해결하기 위해, PR-attack은 최적화된 독성 텍스트와 백도어 트리거를 생성하는 이중 수준 최적화 문제로 공격 과정을 공식화합니다. 프롬프트에 백도어 트리거를 심어 소량의 독성 텍스트만으로도 높은 성공률과 은닉성을 달성하며, 다양한 LLM과 데이터셋에서 효과를 검증합니다.