दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

बटरफ्लाईक्वांट: सीखने योग्य ऑर्थोगोनल बटरफ्लाई ट्रांसफॉर्म्स के माध्यम से अल्ट्रा-लो-बिट एलएलएम क्वांटाइजेशन

Created by
  • Haebom

लेखक

बिंगक्सिन जू, जेन डोंग, औसामा इलाचकर, युझांग शांग

रूपरेखा

यह शोधपत्र बटरफ्लाईक्वांट, एक नवीन क्वांटीकरण तकनीक प्रस्तावित करता है जो 2-बिट क्वांटीकरण में सक्रियण आउटलायर्स के कारण होने वाले प्रदर्शन ह्रास को दूर करती है। जबकि मौजूदा घूर्णन-आधारित विधियाँ (QuIP, QuaRot) एक निश्चित हैडामार्ड रूपांतरण का उपयोग करती हैं, यह शोधपत्र पाता है कि एक ट्रांसफॉर्मर की प्रत्येक परत विशिष्ट आउटलायर पैटर्न प्रदर्शित करती है। इसलिए, हम बटरफ्लाईक्वांट, एक सीखने योग्य बटरफ्लाई रूपांतरण प्रस्तावित करते हैं जो परतों को अनुकूल रूप से घुमाता है। बटरफ्लाई रूपांतरण, सतत गिवेंस घूर्णन कोणों को मापदंडों के रूप में उपयोग करके अवकलनीय है, ऑर्थोगोनैलिटी की गारंटी देता है, और इसकी गणनात्मक जटिलता $O(n \log n)$ है, जिसमें केवल $\frac{n \log n}{2}$ सीखने योग्य पैरामीटर हैं। इसके अलावा, हम रूपांतरण के बाद सक्रियणों का एकसमान नियमन प्रस्तुत करते हैं ताकि परिमाणीकरण के लिए उपयुक्त एक सुचारू वितरण सुनिश्चित हो सके। LLaMA-2-7B मॉडल पर 2-बिट क्वांटीकरण का उपयोग करके प्रायोगिक परिणाम दर्शाते हैं कि बटरफ्लाईक्वांट, क्वारॉट से काफी बेहतर प्रदर्शन करता है।

Takeaways, Limitations

Takeaways:
परतों के पार अनुकूली घूर्णन, पारंपरिक निश्चित रूपांतरण-आधारित विधियों की तुलना में अधिक कुशल 2-बिट क्वांटीकरण को सक्षम बनाता है।
हम एक कुशल क्वांटीकरण विधि प्रस्तुत करते हैं जो सीखने योग्य बटरफ्लाई रूपांतरण का उपयोग करके विभेदनीयता और ऑर्थोगोनलिटी की गारंटी देता है।
अंशांकन नमूनों की छोटी संख्या और तीव्र अभिसरण समय व्यावहारिक प्रयोज्यता को बढ़ाते हैं।
एलएलएएमए-2-7बी के प्रायोगिक परिणाम मौजूदा तरीकों की तुलना में बेहतर प्रदर्शन प्रदर्शित करते हैं।
Limitations:
बटरफ्लाईक्वांट का प्रदर्शन सुधार एक विशिष्ट मॉडल (LLaMA-2-7B) और 2-बिट क्वांटाइजेशन तक सीमित हो सकता है।
अन्य प्रकार के बड़े पैमाने के भाषा मॉडल या क्वांटिज़ेशन बिट गणना के लिए सामान्यीकरण प्रदर्शन सत्यापन की आवश्यकता होती है।
एकरूपता सामान्यीकरण के प्रभावों का आगे विश्लेषण आवश्यक हो सकता है।
अत्यधिक निम्न-बिट क्वांटीकरण के लिए सामान्यीकरण प्रदर्शन पर आगे अनुसंधान की आवश्यकता है।
👍