Este artículo presenta los resultados de un estudio exhaustivo que evalúa las vulnerabilidades de seguridad de agentes autónomos basados en modelos de lenguaje a gran escala (LLM). Demostramos que los agentes autónomos que utilizan LLM como motores de inferencia pueden explotar diversos vectores de ataque (inyección directa de mensajes, puertas traseras RAG y confianza interagente) para comprometer todo el sistema. Experimentos con 18 LLM de vanguardia, incluyendo GPT-4, Claude-4 y Gemini-2.5, revelan que la mayoría de estos modelos son vulnerables a ataques de inyección directa de mensajes y puertas traseras RAG, así como a ataques que explotan las relaciones de confianza interagente. Esto representa un cambio de paradigma en las amenazas de ciberseguridad, lo que sugiere que las propias herramientas de IA pueden utilizarse como vectores de ataque sofisticados.