यह शोधपत्र बड़े पैमाने के अनुमान मॉडलों (LRMs) में अत्यधिक अनुमान की समस्या के समाधान हेतु एक नवीन द्वि-चरणीय फ़ाइन-ट्यूनिंग रणनीति, "थिंक-हाउ-टू-थिंक" (TH2T) का प्रस्ताव करता है। TH2T पहले अनुमान की गहराई को समायोजित करने के लिए मॉडल में कठिनाई स्तर की जागरूकता डालता है, और फिर मध्यवर्ती अनुमान चरणों में अनावश्यक अनुमान पैटर्न की पहचान करके और उन्हें हटाकर अत्यधिक अनुमान को कम करता है। इसे लघु और दीर्घ अनुमान पथों के मिश्रण वाले डेटासेट का उपयोग करके प्रशिक्षित किया जाता है, और 7B, 14B, और 32B मॉडलों पर प्रायोगिक परिणाम दर्शाते हैं कि यह प्रदर्शन को बनाए रखते हुए आसान कार्यों पर अनुमान लागत को 70% से अधिक और कठिन कार्यों पर 40% से अधिक कम करता है।