Cet article examine les activités de red teaming pour détecter efficacement les risques potentiels dans les modèles d'IA. Nous soulignons que les approches automatisées de red teaming existantes ne prennent pas en compte les origines et les identités humaines, et proposons PersonaTeaming, une nouvelle méthode permettant d'explorer diverses stratégies d'adversaires à l'aide de personas. Nous développons une méthodologie permettant de modifier les invites en fonction des personas, tels que « expert en red team » ou « utilisateur généraliste de l'IA », ainsi qu'un algorithme permettant de générer automatiquement différents types de personas. Nous proposons également une nouvelle mesure de la diversité des invites d'adversaires. Les résultats expérimentaux montrent que PersonaTeaming améliore les taux de réussite des attaques jusqu'à 144,1 % par rapport à la méthode de pointe existante, RainbowPlus. Nous analysons les avantages et les inconvénients des différents types de personas et des méthodes de modification, et suggérons des pistes de recherche futures pour explorer la complémentarité entre les approches automatisées et humaines de red teaming.