दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

आर-स्टिच: कुशल तर्क के लिए गतिशील प्रक्षेप पथ सिलाई

Created by
  • Haebom

लेखक

ज़ुओकुन चेन, ज़ेरेन चेन, जियाहाओ हे, मिंगकुई टैन, जियानफ़ेई कै, बोहन ज़ुआंग

रूपरेखा

यह शोधपत्र R-Stitch का प्रस्ताव करता है, जो विचार-श्रृंखला (CoT) अनुमान की गणना-संबंधी लागत को कम करने की एक नवीन विधि है। CoT अनुमान, बड़े पैमाने के भाषा मॉडलों (LLM) की समस्या-समाधान क्षमता को बढ़ाता है, लेकिन लंबे टोकन अनुक्रमों के स्वतःप्रत्यागामी डिकोडिंग के कारण यह गणना-संबंधी रूप से महंगा है। मौजूदा त्वरण रणनीतियाँ या तो प्रारंभिक रोक या संपीड़न क्षतिपूर्ति योजनाओं के माध्यम से अनुक्रम की लंबाई कम करती हैं, या लघु-स्तरीय मॉडलों का उपयोग करके पूर्वानुमानित डिकोडिंग के माध्यम से डिकोडिंग गति में सुधार करती हैं। हालाँकि, जब लघु-स्तरीय और वृहद-स्तरीय मॉडलों के बीच सहमति कम होती है, तो पूर्वानुमानित डिकोडिंग की गति सीमित होती है, और यह संक्षिप्त मध्यवर्ती अनुमान उत्पन्न करने में लघु-स्तरीय मॉडलों के संभावित लाभों का लाभ उठाने में विफल रहता है। R-Stitch एक टोकन-स्तरीय विश्वास-आधारित हाइब्रिड डिकोडिंग ढाँचा है जो लघु-स्तरीय भाषा मॉडलों (SLM) और वृहद-स्तरीय भाषा मॉडलों (LLM) के बीच स्विच करता है, और LLM का उपयोग केवल तभी करता है जब SLM का विश्वास एक सीमा से नीचे चला जाता है, जिससे दक्षता और सटीकता दोनों बनी रहती है। यह मॉडल-स्वतंत्र है, इसके लिए किसी प्रशिक्षण की आवश्यकता नहीं है, और यह मानक डिकोडिंग पाइपलाइनों के साथ संगत है। गणितीय अनुमान बेंचमार्क प्रयोगों से पता चलता है कि आर-स्टिच न्यूनतम सटीकता ह्रास के साथ अनुमान विलंबता को 85% तक कम कर देता है।

Takeaways, Limitations

Takeaways:
हम CoT अनुमान की कम्प्यूटेशनल लागत को प्रभावी ढंग से कम करने के लिए एक नवीन विधि प्रस्तुत करते हैं।
प्रयोगात्मक रूप से प्रदर्शित किया गया है कि अनुमान विलंबता को 85% तक कम किया जा सकता है, तथा सटीकता में वस्तुतः कोई कमी नहीं आती।
यह मॉडल-अज्ञेयवादी है, इसके लिए किसी प्रशिक्षण की आवश्यकता नहीं है, तथा यह मानक डिकोडिंग पाइपलाइनों के साथ संगत है, जिससे यह अत्यधिक व्यावहारिक है।
Limitations:
एसएलएम के लिए विश्वसनीयता सीमा निर्धारित करने के लिए आगे अनुसंधान की आवश्यकता हो सकती है।
विभिन्न प्रकार की समस्याओं और मॉडलों के लिए सामान्यीकरण प्रदर्शन का आगे मूल्यांकन आवश्यक हो सकता है।
यदि एसएलएम और एलएलएम के बीच प्रदर्शन अंतर बड़ा है, तो प्रदर्शन सुधार सीमित हो सकता है।
👍