본 논문은 동적이고 신뢰도가 낮은 환경에서 자율 AI 에이전트의 정확성을 보장하는 프로토콜을 제안합니다. 에러를 노출하는 비용이 에러를 범하는 비용보다 저렴한 시스템에서 정확성은 부상적 속성으로 나타납니다. 이 프로토콜은 재귀적 검증 게임에서 담보된 주장을 통해 정확성을 강제합니다. 작업은 의도(intent)로 게시되고, 해결자(solver)는 이를 수행하기 위해 경쟁합니다. 선택된 해결자는 위험을 감수하고 작업을 수행하며, 검증자(verifier)가 사후에 정확성을 확인합니다. 어떤 도전자(challenger)도 결과에 이의를 제기하여 검증 프로세스를 시작할 수 있으며, 잘못된 에이전트는 몰수되고 정확한 반대 의견은 보상받습니다. 잘못된 검증자 자체에도 패널티가 부과되는 에스컬레이션 경로가 존재합니다. 해결자, 도전자, 검증자 간의 인센티브가 일치하면, 반증 조건이 정확성을 내쉬 균형으로 만듭니다.