इस शोधपत्र में, हम जाँच करते हैं कि आसुत मॉडल, ज्ञान आसवन प्रक्रिया के दौरान मूल मॉडल की तर्क प्रक्रिया में प्रकट होने वाले सतही शैली प्रतिमानों (संरचनात्मक और शाब्दिक प्रतिमानों) को कितना सीखता है ताकि एक बड़े पैमाने के भाषा मॉडल (LLM) की तर्क क्षमता में सुधार हो सके। इसके लिए, हम सफल तर्क प्रक्रियाओं के संरचनात्मक और शाब्दिक प्रतिमानों का विश्लेषण करते हैं और आसुत मॉडल की तर्क क्षमता पर उनके प्रभावों का सटीक विश्लेषण करने के लिए दो नए तर्क ट्रेस डेटासेट (उभरते तर्क ट्रेस और एक कृत्रिम डेटासेट जो शैली प्रतिमानों की कृत्रिम रूप से प्रतिकृति बनाता है) प्रस्तुत करते हैं। प्रायोगिक परिणाम दर्शाते हैं कि सिंथेटिक डेटासेट पर प्रशिक्षित मॉडल समान प्रदर्शन प्राप्त करते हैं, जिससे यह पता चलता है कि आसुत तर्क क्षमता सतही शैली प्रतिमानों पर अत्यधिक निर्भर करती है। आश्चर्यजनक रूप से, हम देखते हैं कि प्रदर्शन तब भी बेहतर होता है जब सिंथेटिक ट्रेस को गलत उत्तरों की ओर ले जाने के लिए संशोधित किया जाता है। इससे पता चलता है कि शैली प्रतिमानों का उपयोग विभिन्न मॉडलों में LLM की तर्क क्षमता को कुशलतापूर्वक बेहतर बनाने के लिए किया जा सकता है।