Bài báo này xem xét các hoạt động nhóm đỏ (red teaming) để phát hiện hiệu quả các rủi ro tiềm ẩn trong các mô hình AI. Chúng tôi chỉ ra rằng các phương pháp nhóm đỏ tự động hiện có chưa tính đến bối cảnh và danh tính của con người, và đề xuất PersonaTeaming, một phương pháp mới để khám phá các chiến lược đối kháng đa dạng bằng cách sử dụng các cá tính. Chúng tôi phát triển một phương pháp để điều chỉnh các gợi ý dựa trên các cá tính, chẳng hạn như "chuyên gia nhóm đỏ" hoặc "người dùng AI nói chung", và một thuật toán để tự động tạo ra các loại cá tính khác nhau. Chúng tôi cũng đề xuất một thước đo mới để đo lường tính đa dạng của các gợi ý đối kháng. Kết quả thử nghiệm cho thấy PersonaTeaming cải thiện tỷ lệ thành công của các cuộc tấn công lên đến 144,1% so với phương pháp tiên tiến hiện có, RainbowPlus. Chúng tôi thảo luận về ưu và nhược điểm của các loại cá tính và phương pháp điều chỉnh khác nhau, đồng thời đề xuất các hướng nghiên cứu trong tương lai để khám phá tính bổ sung giữa các phương pháp nhóm đỏ tự động và phương pháp nhóm đỏ của con người.