यह शोधपत्र एक यांत्रिक विश्लेषण प्रस्तुत करता है कि कैसे प्रशिक्षण-पश्चात प्रक्रिया, जो एक पूर्व-प्रशिक्षित वृहद-स्तरीय भाषा मॉडल (LLM) को एक अधिक उपयोगी और संरेखित प्रशिक्षण-पश्चात मॉडल में रूपांतरित करने के लिए आवश्यक है, LLM की आंतरिक संरचना का पुनर्गठन करती है। हम चार दृष्टिकोणों से मॉडल परिवारों और डेटासेट में आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों की तुलना और विश्लेषण करते हैं: तथ्यात्मक ज्ञान संग्रहण स्थान, ज्ञान निरूपण, सत्य और अस्वीकृति निरूपण, और विश्वास स्तर। हम निष्कर्ष निकालते हैं कि: पहला, प्रशिक्षण-पश्चात तथ्यात्मक ज्ञान संग्रहण स्थानों में परिवर्तन किए बिना आधार मॉडल के ज्ञान निरूपणों को अनुकूलित करते हुए नए ज्ञान निरूपण विकसित करता है। दूसरा, सत्य और अस्वीकृति को छिपे हुए निरूपण स्थान में सदिशों के रूप में निरूपित किया जा सकता है, और सत्य अभिविन्यास आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों के बीच अत्यधिक समान होता है और हस्तक्षेपों में प्रभावी रूप से स्थानांतरित होता है। तीसरा, अस्वीकृति अभिविन्यास आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों के बीच भिन्न होता है, जो सीमित स्थानांतरणीयता प्रदर्शित करता है। चौथा, आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों के बीच विश्वास अंतर को एन्ट्रॉपी न्यूरॉन्स के कारण नहीं माना जा सकता है। यह अध्ययन उन अंतर्निहित तंत्रों के बारे में अंतर्दृष्टि प्रदान करता है जिन्हें प्रशिक्षण के बाद बनाए रखा जाता है और बदला जाता है, मॉडल ट्यूनिंग जैसे बाद के कार्यों को सुविधाजनक बनाता है, और संभावित रूप से व्याख्या और एलएलएम प्रशिक्षण के बाद भविष्य के अनुसंधान को सूचित करता है।