本論文は,ダイナミックで信頼性の低い環境で自律的AIエージェントの精度を保証するプロトコルを提案する。エージェントは、タスクをサブエージェントに委任し、デポジットをかけ、タスクの正確性を検証する再帰的検証ゲームを通じて正確性を確保します。タスクは意図的に公開され、ソルバーは競合してタスクを実行します。選択されたソルバーはリスクを負い、タスクを実行し、検証者によって事後的に精度がチェックされます。どの挑戦者も結果に異議を申し立てることによって検証プロセスを開始することができ、誤ったエージェントは制裁を受け、正しい反対意見を提示したエージェントは報酬を受けます。無効な検証者も制裁を受ける格付けの上昇経路があります。解答者、挑戦者、検証者間のインセンティブが一致すると、反証条件は正確さを内視バランスにします。