यह शोधपत्र बड़े पैमाने के भाषा मॉडलों (LLM) की निगमनात्मक तर्क क्षमता में सुधार हेतु एक नवीन दृष्टिकोण प्रस्तुत करता है। परीक्षण समय विस्तार और परिणाम या प्रक्रिया क्षतिपूर्ति मॉडलों को मिलाकर किए गए पिछले शोध के आधार पर, हम निगमनात्मक तर्क के लिए विशिष्ट परिणाम क्षतिपूर्ति मॉडल (ORM) प्रस्तावित करते हैं। ORM को प्रशिक्षित करने के लिए, हम एकल और बहु-नमूनों का उपयोग करके विचार-श्रृंखला (CoT) के माध्यम से डेटा उत्पन्न करते हैं, और एक नवीन "प्रतिध्वनि निर्माण तकनीक" प्रस्तावित करते हैं जो अतिरिक्त प्रशिक्षण डेटा उत्पन्न करने के लिए LLM की त्रुटि प्रवृत्ति का उपयोग करती है। यह तकनीक पारंपरिक CoT विधियों की तुलना में अधिक विविध प्रकार की त्रुटियों वाले प्रशिक्षण डेटा उत्पन्न करती है। प्रायोगिक परिणाम दर्शाते हैं कि CoT और प्रतिध्वनि-संवर्धित डेटा से प्रशिक्षित ORM, FOLIO, JustLogic और ProverQA डेटासेट पर चार अलग-अलग LLM के प्रदर्शन को बेहतर बनाते हैं।