Este artículo aborda las vulnerabilidades de seguridad de los modelos de lenguaje a gran escala (LLM) basados en la Generación Aumentada por Recuperación (RAG), específicamente el riesgo de ataques de contaminación de conocimiento contra bases de conocimiento externas de acceso público y modificables. Si bien los métodos de ataque existentes requieren múltiples documentos o solo son efectivos contra consultas simples, este artículo presenta AuthChain, un método práctico de ataque de contaminación de conocimiento que es efectivo contra consultas complejas de varios pasos al contaminar un solo documento. AuthChain aborda tres desafíos, asegurando que los documentos contaminados se recuperen de forma fiable y sean confiables para el LLM, a pesar de la gran base de conocimiento y el propio conocimiento del LLM. Mediante experimentos exhaustivos con seis LLM populares, demostramos que AuthChain logra tasas de éxito de ataque significativamente mayores y un sigilo superior en comparación con los modelos de referencia de vanguardia existentes.