检索增强生成 (RAG) 框架通过整合来自检索文档的外部知识来提高大规模语言模型 (LLM) 的准确率。然而,该框架易受对抗性攻击的影响,这些攻击会通过在查询中引入语义相似但具有对抗性的文档来操纵检索过程。本文提出了一种基于图的重排序 (GRADA) 框架,用于对抗性文档攻击,该框架在保持检索质量的同时显著降低了攻击者的成功率。我们在五个 LLM 模型和三个数据集(GPT-3.5-Turbo、GPT-4o、Llama3.1-8b、Llama3.1-70b 和 Qwen2.5-7b)上进行了实验,在 Natural Questions 数据集上将攻击成功率降低了高达 80%,同时最大限度地降低了准确率损失。