Este artículo propone un nuevo protocolo para garantizar la corrección de agentes autónomos de IA en entornos dinámicos de baja confianza. Explota la propiedad de que la corrección emerge en sistemas donde el costo de la exposición al error es menor que el costo de la ocurrencia del error, y adopta un método de delegación de tareas a subagentes. El protocolo propuesto impone la corrección con reclamaciones colateralizadas a través de un juego de verificación recursivo. Las tareas se publican como intenciones, y los solucionadores compiten para realizarlas. El solucionador elegido realiza la tarea bajo riesgo, y su corrección es verificada ex post facto por un verificador. Cualquier retador puede iniciar el proceso de verificación cuestionando los resultados, y un agente falso es penalizado, mientras que una parte disidente correcta es recompensada. Un verificador falso también es castigado a través de una verificación de nivel superior. Cuando los incentivos de los solucionadores, retadores y verificadores están alineados, la condición de falsificación convierte la corrección en un equilibrio de Nash.