Este artículo propone un protocolo para asegurar la corrección de agentes autónomos de IA en entornos dinámicos y de baja confianza. El agente delega tareas a subagentes y asegura la corrección de las tareas mediante un juego de verificación recursivo en el que el agente apuesta un bono para verificar la corrección de las tareas. Las tareas se publican como intenciones y los solucionadores compiten para realizarlas. El solucionador seleccionado realiza la tarea bajo riesgo y la corrección es verificada ex post facto por el verificador. Cualquier retador puede iniciar el proceso de verificación cuestionando los resultados, y los agentes incorrectos son penalizados, mientras que los agentes que presentan contraargumentos correctos son recompensados. Existe una trayectoria ascendente en la que los verificadores incorrectos también son penalizados. Cuando los incentivos de los solucionadores, retadores y verificadores están alineados, la condición de falsificación hace que la corrección sea un equilibrio de Nash.