Este artículo destaca la rápida adopción de la IA de agentes basada en Modelos de Lenguaje a Gran Escala (LLM), que está transformando el ecosistema empresarial, donde los agentes autónomos ejecutan flujos de trabajo complejos. Sin embargo, los sistemas multiagente (MAS) basados en LLM presentan diversas vulnerabilidades de seguridad críticas, como marcos de identidad fragmentados, canales de comunicación inseguros y defensas inadecuadas contra agentes bizantinos o avisos adversarios. Demostramos que las estrategias de seguridad existentes no pueden abordar eficazmente estos riesgos y proponemos BlockA2A, el primer marco de confianza multiagente unificado que permite una confianza segura, verificable e interoperable entre agentes. BlockA2A emplea una autenticación de agentes entre dominios de granularidad fina mediante identificadores descentralizados (DID), un libro de contabilidad basado en blockchain para auditoría inmutable y contratos inteligentes que aplican dinámicamente políticas de control de acceso contextuales. Además, proponemos un Motor de Orquestación de Defensa (DOE) que neutraliza activamente los ataques mediante mecanismos en tiempo real como el marcado de agentes bizantinos, la suspensión reactiva de la ejecución y la revocación inmediata de privilegios. Los resultados experimentales demuestran que BlockA2A y DOE operan con una sobrecarga inferior a un segundo, lo que permite una implementación escalable en entornos MAS basados en LLM. Formalizamos cómo integrar el protocolo A2A de Google en los MAS existentes mediante una implementación práctica.