Bài báo này dựa trên các ví dụ gần đây về cách các nỗ lực có tổ chức của con người có thể gây hại, chẳng hạn như gian lận bầu cử và gian lận tài chính, đồng thời nêu lên lo ngại rằng sự gia tăng của các hệ thống AI tự trị và các nhóm dựa trên AI có thể gây ra tác hại tương tự. Mặc dù hầu hết các nghiên cứu về an toàn AI đều tập trung vào các hệ thống AI riêng lẻ, nhưng những rủi ro do hệ thống đa tác nhân (MAS) gây ra trong các tình huống thực tế phức tạp vẫn chưa được khám phá đầy đủ. Trong bài báo này, chúng tôi trình bày một bằng chứng khái niệm mô phỏng rủi ro thông đồng MAS độc hại bằng cách sử dụng một khuôn khổ linh hoạt hỗ trợ cả kiến trúc phối hợp tập trung và phi tập trung. Chúng tôi áp dụng khuôn khổ này cho hai lĩnh vực có rủi ro cao, phát tán thông tin sai lệch và gian lận thương mại điện tử, và chứng minh rằng các hệ thống phi tập trung hiệu quả hơn các hệ thống tập trung trong việc thực hiện các hành vi độc hại. Tính tự chủ gia tăng của các hệ thống phi tập trung cho phép chúng điều chỉnh chiến lược và gây ra thiệt hại lớn hơn. Ngay cả khi áp dụng các biện pháp can thiệp truyền thống như gắn cờ nội dung, các nhóm phi tập trung vẫn có thể điều chỉnh chiến thuật của mình để tránh bị phát hiện. Bài báo này cung cấp những hiểu biết sâu sắc về cách thức hoạt động của các nhóm độc hại này và nhu cầu về các hệ thống phát hiện và biện pháp đối phó tốt hơn. Mã liên quan có sẵn trên GitHub.