दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

DaMoC: डेटा और मॉडल संपीड़न के आधार पर डोमेन कार्यों को ठीक करने के लिए इष्टतम बड़े भाषा मॉडल का कुशलतापूर्वक चयन करना

Created by
  • Haebom

लेखक

वेई हुआंग, हुआंग वेई, यिंगगुई वांग

रूपरेखा

यह शोधपत्र एक डेटा और मॉडल कम्प्रेशन फ्रेमवर्क (DaMoC) प्रस्तावित करता है जो विशिष्ट डोमेन कार्यों के लिए फाइन-ट्यूनिंग हेतु अनेक ओपन-सोर्स लार्ज-स्केल लैंग्वेज मॉडल्स (LLMs) में से शीघ्रता से इष्टतम मॉडल चुनने की समस्या का समाधान करता है। DaMoC में दो पहलू शामिल हैं: डेटा और मॉडल स्तर। डेटा स्तर पर, हम डेटा फ़िल्टरिंग विधियों को तीन प्रतिमानों में वर्गीकृत करते हैं: वितरण-सचेत, गुणवत्ता-सचेत और हाइब्रिड दृष्टिकोण। हम कुंजी टोकन्स का घनत्व बढ़ाकर टोकन कम्प्रेशन प्राप्त करते हैं, और LLMs का उपयोग करके पाठ को बार-बार पुनर्लेखन करके निरूपण को अनुकूलित करते हैं। मॉडल स्तर पर, हम प्रत्येक परत के महत्व का आकलन करने के लिए पदानुक्रमित समानता स्कोर का उपयोग करते हैं, कम महत्व वाली परतों को छाँटते हैं, और मूल मॉडल की विशेषताओं के संरक्षण को अधिकतम करने के लिए एक विरल विलय प्रतिमान प्रस्तुत करते हैं। चार डेटासेट्स—मेडिकल प्रश्नोत्तर, वित्तीय प्रश्नोत्तर, सामान्य प्रश्नोत्तर, और पठन बोध—पर व्यापक प्रयोगों के माध्यम से, हम प्रदर्शित करते हैं कि इष्टतम LLM का चयन करने से प्रशिक्षण समय लगभग 20 गुना कम हो जाता है।

Takeaways, Limitations

Takeaways:
हम विभिन्न ओपन-सोर्स एलएलएम में से किसी विशिष्ट कार्य के लिए इष्टतम मॉडल का कुशलतापूर्वक चयन करने के लिए एक ढांचा प्रदान करते हैं।
डेटा और मॉडल संपीड़न के माध्यम से एलएलएम फाइन-ट्यूनिंग (लगभग 20x) के लिए प्रशिक्षण समय को नाटकीय रूप से कम कर देता है।
हम व्यवस्थित रूप से डेटा फ़िल्टरिंग पद्धतियों को वर्गीकृत करते हैं और एलएलएम को बेहतर बनाने के लिए प्रभावी रणनीति प्रस्तुत करते हैं।
Limitations:
प्रस्तावित ढाँचे का प्रदर्शन उपयोग किए गए डेटासेट और कार्य पर निर्भर हो सकता है। विभिन्न डेटासेट और कार्यों पर अतिरिक्त प्रयोगों की आवश्यकता है।
"विरल विलय प्रतिमान" की विशिष्ट कार्यप्रणाली के विस्तृत विवरण का अभाव पुनरुत्पादनशीलता की समीक्षा को आवश्यक बनाता है।
यह सत्यापित करने के लिए आगे अनुसंधान की आवश्यकता है कि क्या 20x प्रशिक्षण समय में कमी का प्रभाव सभी मामलों में एक समान है।
👍