Este artículo presenta un enfoque novedoso para abordar las vulnerabilidades de seguridad en agentes de Modelos de Lenguaje a Gran Escala (LLM), en particular el riesgo de ataques de inyección rápida, mediante el tratamiento de las trazas de ejecución de los agentes como programas estructurados. Proponemos un marco de análisis de programas, AgentArmor, que transforma las trazas de los agentes en representaciones intermedias de grafos (CFG, DFG, PDG, etc.) e implementa políticas de seguridad mediante un sistema de tipos. AgentArmor consta de tres componentes principales: un generador de grafos, un registro de propiedades y un sistema de tipos. Al representar el comportamiento del agente como un programa estructurado, permite el análisis de programas para flujos de datos sensibles, límites de confianza e infracciones de políticas. Los resultados de la evaluación realizada con el benchmark AgentDojo demuestran que AgentArmor reduce la ASR al 3 % y limita la degradación de la utilidad al 1 %.