यह पत्र इस समस्या का समाधान करता है कि कार्यान्वित AI के लिए बड़े पैमाने पर भाषा मॉडल (LLM)-आधारित कार्य नियोजन और उसके संगत मानवीय प्रदर्शन अनावश्यक क्रियाओं, अनावश्यक अन्वेषण और तार्किक त्रुटियों के कारण नीति की गुणवत्ता को कम कर सकते हैं। इस समस्या के समाधान के लिए, हम एक पुनरावृत्त सत्यापन ढाँचा प्रस्तावित करते हैं जिसमें निर्णयात्मक LLM क्रिया अनुक्रमों की समीक्षा करता है और नियोजनात्मक LLM सुधार लागू करता है। यह उत्तरोत्तर स्वच्छ और स्थानिक रूप से सुसंगत प्रक्षेप पथ उत्पन्न करता है। नियम-आधारित दृष्टिकोणों के विपरीत, यह प्राकृतिक भाषा संकेत पर निर्भर करता है, जिससे अप्रासंगिक क्रियाओं, विरोधाभासों और छूटे हुए चरणों सहित विभिन्न प्रकार की त्रुटियों के लिए व्यापक सामान्यीकरण संभव हो पाता है। TEACh कार्यान्वयन AI डेटासेट से मैन्युअल रूप से एनोटेट किए गए क्रिया सेट पर, प्रस्तावित ढाँचा चार अत्याधुनिक LLM (GPT-4-mini, DeepSeek-R1, Gemini 2.5, और LLaMA 4 Scout) के विरुद्ध 90% तक स्मरण और 100% सटीकता प्राप्त करता है। शोधन चक्र तेज़ी से अभिसरित होता है, 96.5% अनुक्रमों के लिए केवल तीन पुनरावृत्तियों की आवश्यकता होती है, जिससे समय दक्षता और स्थानिक क्रिया संरचना दोनों में सुधार होता है। महत्वपूर्ण रूप से, यह विधि मानवीय त्रुटि पुनर्प्राप्ति पैटर्न को बिना किसी व्यवधान के संरक्षित करके, सुदृढ़ सुधार व्यवहारों पर भविष्य के शोध का समर्थन करती है। स्थानिक नियोजन और व्यवहार सुधार के लिए एक विश्वसनीय LLM फ़ंक्शन के रूप में योजना सत्यापन को स्थापित करके, यह कार्यान्वित AI में अनुकरण अधिगम हेतु उच्च-गुणवत्ता वाले प्रशिक्षण डेटा के लिए एक मापनीय मार्ग प्रदान करता है।