Dans cet article, nous présentons Generative Adversarial Suffix Prompter (GASP), un nouveau framework automatisé pour les attaques de jailbreak qui contournent les protections des modèles de langage à grande échelle (LLM) et induisent des réponses néfastes. Pour surmonter les limites des méthodes manuelles existantes ou des attaques basées sur l'optimisation (difficulté de généralisation, génération d'invites artificielle, coût de calcul élevé), GASP génère des invites de jailbreak lisibles par l'homme en utilisant l'optimisation bayésienne latente, qui explore efficacement l'espace d'inclusion latent continu. Il améliore l'efficacité de l'attaque tout en maintenant la cohérence des invites grâce à une procédure d'amélioration itérative orientée vers les objectifs. Les résultats expérimentaux montrent que GASP est une solution efficace et évolutive qui améliore le taux de réussite du jailbreak et réduit le temps d'apprentissage et la vitesse d'inférence par rapport aux méthodes existantes.