Cet article met en évidence l'adoption rapide de l'IA agent basée sur des modèles de langage à grande échelle (LLM), qui transforme l'écosystème d'entreprise, où des agents autonomes exécutent des workflows complexes. Cependant, les systèmes multi-agents (MAS) basés sur des LLM souffrent de plusieurs vulnérabilités de sécurité critiques, notamment des cadres d'identité fragmentés, des canaux de communication non sécurisés et des défenses inadéquates contre les agents byzantins ou les messages d'alerte adverses. Nous démontrons que les stratégies de sécurité existantes ne peuvent pas répondre efficacement à ces risques et proposons BlockA2A, le premier cadre de confiance multi-agent unifié permettant une confiance inter-agent sécurisée, vérifiable et interopérable. BlockA2A utilise une authentification inter-domaines fine des agents à l'aide d'identifiants décentralisés (DID), un registre basé sur la blockchain pour un audit immuable et des contrats intelligents qui appliquent dynamiquement des politiques de contrôle d'accès contextuelles. De plus, nous proposons un moteur d'orchestration de défense (DOE) qui neutralise activement les attaques grâce à des mécanismes en temps réel tels que le marquage des agents byzantins, la suspension réactive de l'exécution et la révocation immédiate des privilèges. Les résultats expérimentaux démontrent que BlockA2A et DOE fonctionnent avec une surcharge inférieure à la seconde, permettant un déploiement évolutif dans les environnements MAS basés sur LLM. Nous formalisons l'intégration du protocole A2A de Google dans les MAS existants grâce à une implémentation pratique.