Cet article présente les résultats d'une étude exhaustive évaluant les vulnérabilités de sécurité des agents autonomes basés sur des modèles de langage à grande échelle (LLM). Nous démontrons que les agents autonomes utilisant les LLM comme moteurs d'inférence peuvent exploiter divers vecteurs d'attaque (injection directe d'invites, portes dérobées RAG et confiance inter-agents) pour prendre le contrôle total du système. Des expériences menées sur 18 LLM de pointe, dont GPT-4, Claude-4 et Gemini-2.5, révèlent que la majorité de ces modèles sont vulnérables aux attaques par injection directe d'invites et par portes dérobées RAG, ainsi qu'aux attaques exploitant les relations de confiance inter-agents. Cela représente un changement de paradigme dans les menaces de cybersécurité, suggérant que les outils d'IA eux-mêmes peuvent être exploités comme des vecteurs d'attaque sophistiqués.