Este artículo examina las actividades de los equipos rojos para detectar eficazmente riesgos potenciales en los modelos de IA. Señalamos que los enfoques automatizados existentes de equipos rojos no tienen en cuenta los antecedentes e identidades humanas, y proponemos PersonaTeaming, un novedoso método para explorar diversas estrategias adversarias utilizando personajes. Desarrollamos una metodología para modificar las indicaciones basadas en personajes, como "experto en equipos rojos" o "usuario general de IA", y un algoritmo para generar automáticamente varios tipos de personajes. También proponemos una nueva métrica para medir la diversidad de indicaciones adversarias. Los resultados experimentales muestran que PersonaTeaming mejora las tasas de éxito de los ataques hasta en un 144,1 % en comparación con el método de vanguardia existente, RainbowPlus. Analizamos las ventajas y desventajas de los distintos tipos de personajes y métodos de modificación, y sugerimos futuras líneas de investigación para explorar la complementariedad entre los enfoques automatizados y humanos de los equipos rojos.