본 논문은 동적이고 신뢰도가 낮은 환경에서 자율 AI 에이전트가 작업을 하위 에이전트에 위임할 때 정확성을 보장하는 프로토콜을 제안한다. 오류 노출 비용이 오류 발생 비용보다 저렴한 시스템에서 정확성은 부상적인 속성으로 나타난다는 점에 착안하여, 의도(intent)를 공개하고 해결사(solver)들이 경쟁적으로 작업을 수행하는 방식을 제시한다. 선택된 해결사는 위험을 감수하고 작업을 수행하며, 검증자(verifier)가 사후에 정확성을 검증한다. 어떤 도전자(challenger)든지 결과에 이의를 제기하여 검증 과정을 시작할 수 있으며, 잘못된 에이전트는 벌금을 부과 받고, 정확한 반대측은 보상을 받는다. 잘못된 검증자 역시 상위 단계의 검증을 통해 처벌받는다. 해결사, 도전자, 검증자 간의 인센티브가 정렬될 때, 반증 조건은 정확성을 내쉬 균형으로 만든다. 이는 상호 재귀적 검증 게임을 통한 담보(collateralized claims)를 이용하여 정확성을 강제하는 방식이다.