चेन-ऑफ-थॉट (CoT) और ट्री-ऑफ-थॉट (ToT) जैसी उन्नत प्रॉम्प्टिंग तकनीकों के साथ जटिल कार्यों में उत्कृष्टता प्राप्त करने वाले बड़े पैमाने के भाषा मॉडल (LLM) की सीमाओं को संबोधित करने के लिए, यह पेपर एक मिक्सचर ऑफ रीजनिंग (MoR) प्रशिक्षण ढांचा प्रस्तुत करता है जो बाहरी प्रॉम्प्ट इंजीनियरिंग के बिना अपर्यवेक्षित और कार्य-अनुकूली तर्क के लिए LLM में विभिन्न तर्क रणनीतियों को एकीकृत करता है। MoR में दो चरण होते हैं: एक 'थॉट जेनरेशन' चरण, जो GPT-4 जैसे मॉडल का उपयोग करके अनुमान श्रृंखला टेम्पलेट्स उत्पन्न करता है, और एक 'SFT डेटासेट निर्माण' चरण, जो पर्यवेक्षित सीखने के लिए टेम्पलेट्स को बेंचमार्क डेटासेट के साथ जोड़ता है। प्रायोगिक परिणाम दिखाते हैं कि MoR CoT प्रॉम्प्टिंग पर 0.730 (2.2% सुधार) और बेसलाइन पर 0.734 (13.5% सुधार) का प्रदर्शन सुधार प्राप्त करता है