दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

प्रशिक्षण के बाद एलएलएम को कैसे नया रूप दिया जाता है: ज्ञान, सत्यता, इनकार और आत्मविश्वास पर एक यंत्रवत दृष्टिकोण

Created by
  • Haebom

लेखक

होंगज़े डू, वेइकाई ली, मिन कै, करीम सरायपुर, ज़िमिन झांग, हिमाबिन्दु लक्कारजू, यिझोउ सन, शिचांग झांग

रूपरेखा

यह शोधपत्र एक यांत्रिक विश्लेषण प्रस्तुत करता है कि कैसे प्रशिक्षण-पश्चात प्रक्रिया, जो एक पूर्व-प्रशिक्षित वृहद-स्तरीय भाषा मॉडल (LLM) को एक अधिक उपयोगी और संरेखित प्रशिक्षण-पश्चात मॉडल में रूपांतरित करने के लिए आवश्यक है, LLM की आंतरिक संरचना का पुनर्गठन करती है। हम चार दृष्टिकोणों से मॉडल परिवारों और डेटासेट में आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों की तुलना और विश्लेषण करते हैं: तथ्यात्मक ज्ञान संग्रहण स्थान, ज्ञान निरूपण, सत्य और अस्वीकृति निरूपण, और विश्वास स्तर। हम निष्कर्ष निकालते हैं कि: पहला, प्रशिक्षण-पश्चात तथ्यात्मक ज्ञान संग्रहण स्थानों में परिवर्तन किए बिना आधार मॉडल के ज्ञान निरूपणों को अनुकूलित करते हुए नए ज्ञान निरूपण विकसित करता है। दूसरा, सत्य और अस्वीकृति को छिपे हुए निरूपण स्थान में सदिशों के रूप में निरूपित किया जा सकता है, और सत्य अभिविन्यास आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों के बीच अत्यधिक समान होता है और हस्तक्षेपों में प्रभावी रूप से स्थानांतरित होता है। तीसरा, अस्वीकृति अभिविन्यास आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों के बीच भिन्न होता है, जो सीमित स्थानांतरणीयता प्रदर्शित करता है। चौथा, आधार मॉडल और प्रशिक्षण-पश्चात मॉडलों के बीच विश्वास अंतर को एन्ट्रॉपी न्यूरॉन्स के कारण नहीं माना जा सकता है। यह अध्ययन उन अंतर्निहित तंत्रों के बारे में अंतर्दृष्टि प्रदान करता है जिन्हें प्रशिक्षण के बाद बनाए रखा जाता है और बदला जाता है, मॉडल ट्यूनिंग जैसे बाद के कार्यों को सुविधाजनक बनाता है, और संभावित रूप से व्याख्या और एलएलएम प्रशिक्षण के बाद भविष्य के अनुसंधान को सूचित करता है।

Takeaways, Limitations

Takeaways:
प्रशिक्षण के बाद के मूलभूत तंत्रों की समझ में वृद्धि
मॉडल स्टीयरिंग जैसे अनुवर्ती कार्य को बेहतर बनाने में योगदान दें
एलएलएम व्याख्या और प्रशिक्षण-पश्चात अनुसंधान के लिए एक नई दिशा
प्रशिक्षण के बाद ज्ञान प्रतिनिधित्व में परिवर्तनों की पहचान करना
सत्य और इनकार अभिव्यक्तियों के वेक्टर प्रतिनिधित्व और संप्रेषणीयता का विश्लेषण प्रदान करता है।
Limitations:
चूंकि विश्लेषण के परिणाम एक विशिष्ट मॉडल श्रृंखला और डेटासेट के लिए हैं, इसलिए सामान्यीकरण का निर्धारण करने के लिए आगे अनुसंधान की आवश्यकता है।
एन्ट्रॉपी न्यूरॉन्स के अलावा अन्य कारकों के कारण विश्वसनीयता में अंतर की संभावना पर विचार किया जाना चाहिए।
अस्वीकृति दिशा की सीमित संप्रेषणीयता को संबोधित करने के लिए आगे के विश्लेषण और सुधार उपायों की आवश्यकता है।
👍