Este artículo propone Progent, un nuevo marco de trabajo para abordar las amenazas de seguridad de los agentes del Modelo de Lenguaje a Gran Escala (LLM). Los agentes LLM interactúan con diversas herramientas externas y realizan tareas de usuario, pero son vulnerables a ataques como la inyección indirecta de mensajes, la contaminación de la memoria o la base de conocimiento, y herramientas maliciosas. Reconociendo que los permisos excesivos en las herramientas son una causa importante de ataques exitosos, Progent protege a los agentes controlando los permisos a nivel de herramienta, permitiendo solo las llamadas necesarias y bloqueando las maliciosas. Admite políticas de permisos detalladas, comportamiento de respaldo cuando se bloquean las llamadas y actualizaciones dinámicas de políticas mediante un lenguaje específico de dominio (DSL), y proporciona seguridad verificable mediante ejecución determinista. Su diseño modular permite la implementación sin modificaciones internas del agente. Las evaluaciones realizadas con benchmarks como AgentDojo, ASB y AgentPoison demuestran una tasa de éxito de ataque del 0 %, manteniendo la usabilidad y la velocidad del agente. Además, demostramos que LLM puede generar automáticamente políticas efectivas, lo que sugiere el potencial para automatizar la escritura de políticas.