Este artículo se basa en ejemplos recientes de cómo las acciones humanas organizadas pueden ser perjudiciales, como el fraude electoral y el fraude financiero, y plantea la preocupación de que el auge de los sistemas autónomos de IA y los grupos basados en IA puedan causar daños similares. Si bien la mayor parte de la investigación sobre seguridad de la IA se ha centrado en sistemas de IA individuales, los riesgos que plantean los sistemas multiagente (SAM) en situaciones reales complejas no se han explorado a fondo. En este artículo, presentamos una prueba de concepto que simula el riesgo de colusión maliciosa de SAM mediante un marco flexible compatible con arquitecturas de coordinación centralizadas y descentralizadas. Aplicamos este marco a dos dominios de alto riesgo: la difusión de desinformación y el fraude en el comercio electrónico, y demostramos que los sistemas descentralizados son más eficaces que los centralizados para realizar acciones maliciosas. La mayor autonomía de los sistemas descentralizados les permite adaptar sus estrategias y causar un mayor daño. Incluso cuando se aplican intervenciones tradicionales como el marcado de contenido, los grupos descentralizados pueden adaptar sus tácticas para evitar ser detectados. Este documento proporciona información clave sobre cómo operan estos grupos maliciosos y la necesidad de mejores sistemas de detección y contramedidas, y el código relevante está disponible en GitHub.