Cet article propose un protocole pour garantir l'exactitude des agents d'IA autonomes dans des environnements dynamiques et à faible confiance. L'agent délègue des tâches à des sous-agents et garantit leur exactitude grâce à un jeu de vérification récursif dans lequel il mise une obligation pour vérifier l'exactitude des tâches. Les tâches sont publiées sous forme d'intentions, et les solveurs sont en compétition pour les réaliser. Le solveur sélectionné exécute la tâche à risque, et l'exactitude est vérifiée ex post par le vérificateur. Tout challenger peut initier le processus de vérification en contestant les résultats. Les agents incorrects sont pénalisés, tandis que ceux qui présentent des contre-arguments corrects sont récompensés. Il existe une trajectoire ascendante dans laquelle les vérificateurs incorrects sont également pénalisés. Lorsque les incitations des solveurs, des challengers et des vérificateurs sont alignées, la condition de falsification transforme l'exactitude en équilibre de Nash.