Cet article aborde la question de la commodité de l'ingénierie des prompts pour les agents autonomes basés sur des modèles de langage à grande échelle, ainsi que la sécurité, la robustesse et la cohérence comportementale qui en résultent. Nous nous concentrons plus particulièrement sur le risque d'exposition des prompts à des tentatives malveillantes de la part des utilisateurs et proposons la « méthode Doppelganger » pour pirater l'agent et exposer les commandes système et les informations internes. Pour évaluer la vulnérabilité à de telles attaques, nous définissons le niveau « Effondrement de l'alignement des prompts sous transfert contradictoire (PACAT) » et présentons l'invite « Attention au transfert contradictoire (CAT) » correspondant à la méthode Doppelganger. Les résultats expérimentaux montrent que la méthode Doppelganger peut compromettre la cohérence de l'agent et exposer ses informations internes, et démontrent que l'invite CAT peut efficacement se défendre contre de telles attaques.