Este artículo aborda la creciente tendencia de agentes basados en modelos de lenguaje a gran escala (LLM) que interactúan, colaboran y delegan tareas de forma autónoma sin intervención humana. Los diseños de sistemas de agentes existentes son teóricos, carecen de implementaciones y evaluaciones concretas, y de control por parte del usuario. Por lo tanto, este artículo propone SAGA, una arquitectura de seguridad escalable para la gobernanza de sistemas de agentes que proporciona supervisión por parte del usuario. SAGA facilita el registro de agentes, la gestión de políticas de control de acceso definidas por el usuario y la aplicación de políticas para la comunicación entre agentes a través de una entidad central: el Proveedor. Además, introduce un mecanismo criptográfico para el control preciso de las interacciones de los agentes, lo que proporciona garantías formales de seguridad. Las evaluaciones de tareas de múltiples agentes mediante LLM en el dispositivo y en la nube demuestran una sobrecarga de rendimiento mínima y ningún impacto en la utilidad de la tarea subyacente.