Este artículo aborda los desafíos de seguridad de los modelos de lenguaje a gran escala (LLM) en rápida evolución, que son agentes autónomos que trascienden las fronteras organizacionales. Los agentes LLM colaboran en tareas que requieren experiencia distribuida, como la respuesta ante desastres y la optimización de la cadena de suministro. Sin embargo, esta colaboración interdominio rompe los supuestos de confianza integrada de las técnicas tradicionales de ordenación y supresión. De forma aislada, incluso los agentes seguros pueden filtrar secretos o infringir políticas al recibir mensajes de pares no confiables, lo que plantea riesgos derivados de la dinámica emergente de múltiples agentes, más que de los errores de software clásicos. En este artículo, presentamos una agenda de seguridad para sistemas LLM multiagente interdominio, que incluye siete nuevos desafíos de seguridad, posibles ataques a cada uno, métricas de evaluación de seguridad y futuras líneas de investigación.