Retrieval Augmented Generation (RAG) 프레임워크는 검색된 문서의 외부 지식을 통합하여 대규모 언어 모델(LLM)의 정확도를 향상시키지만, 쿼리와 의미적으로 유사하지만 적대적인 문서를 도입하여 검색 과정을 조작하는 적대적 공격에 취약합니다. 본 논문에서는 적대적 문서 공격에 대한 그래프 기반 재순위 지정(GRADA) 프레임워크를 제안하여 검색 품질을 유지하면서 적대자의 성공률을 크게 줄입니다. GPT-3.5-Turbo, GPT-4o, Llama3.1-8b, Llama3.1-70b, Qwen2.5-7b 등 5개의 LLM과 세 개의 데이터셋을 사용하여 실험을 진행하였으며, Natural Questions 데이터셋에서 최대 80%의 공격 성공률 감소를 달성하면서 정확도 손실은 최소화하였습니다.