Este artículo estudia los ataques de inyección rápida en aplicaciones y agentes basados en modelos de lenguaje a gran escala (LLM). En particular, revelamos la vulnerabilidad estructural de la Detección de Respuesta Conocida (KAD), una técnica convencional de defensa contra la inyección rápida, y proponemos DataFlip, una novedosa técnica de ataque que la explota. DataFlip evade eficazmente las técnicas de defensa de KAD (tasa de detección inferior al 1,5 %) e induce comportamiento malicioso con una alta tasa de éxito (hasta el 88 %) sin necesidad de acceso de caja blanca ni procedimientos de optimización para LLM.