दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

फ्लॉक के साथ विकेंद्रीकृत शिक्षा का विस्तार

Created by
  • Haebom

लेखक

ज़ेहुआ चेंग, रुई सन, जियाहाओ सन, येके गुओ

रूपरेखा

यह शोधपत्र फ्लॉक (FLock) का प्रस्ताव करता है, जो बड़े पैमाने के भाषा मॉडल (LLM) के वितरित प्रशिक्षण के लिए एक विकेन्द्रीकृत ढाँचा है। जहाँ पारंपरिक फ़ेडरेटेड लर्निंग (FL) एकल विफलता बिंदुओं और केंद्रीकृत सर्वरों से होने वाले दुर्भावनापूर्ण हमलों के प्रति संवेदनशील है, वहीं फ्लॉक एक ब्लॉकचेन-आधारित विश्वास परत और आर्थिक प्रोत्साहनों को एकीकृत करता है ताकि अविश्वसनीय प्रतिभागियों के बीच एक सुरक्षित और ऑडिट करने योग्य सहयोग प्रोटोकॉल प्रदान किया जा सके। हम एक सुरक्षित, बहु-डोमेन, विकेन्द्रीकृत वातावरण में 70B-पैरामीटर LLM को फाइन-ट्यूनिंग करने का पहला अनुभवजन्य सत्यापन प्रस्तुत करते हैं, जो प्रयोगात्मक रूप से दुर्भावनापूर्ण हमले की सफलता दर में 68% से अधिक की कमी और स्वतंत्र रूप से प्रशिक्षित मॉडलों की तुलना में बेहतर क्रॉस-डोमेन सामान्यीकरण प्रदर्शन को प्रदर्शित करता है।

Takeaways, Limitations

Takeaways:
हम फ्लॉक प्रस्तुत करते हैं, जो 70बी-पैरामीटर एलएलएम के सुरक्षित और कुशल वितरित फाइन-ट्यूनिंग के लिए एक नया ढांचा है।
ब्लॉकचेन-आधारित विश्वास परत और आर्थिक प्रोत्साहन का उपयोग करके विकेन्द्रीकृत सहयोग प्रोटोकॉल को लागू करना।
पिछले दरवाजे से दुर्भावनापूर्ण हमलों के विरुद्ध सुरक्षा का प्रदर्शन, जो मौजूदा संघीय शिक्षा में एक कमजोरी है।
बेहतर क्रॉस-डोमेन सामान्यीकरण प्रदर्शन और कम दुर्भावनापूर्ण हमले की सफलता दर की पुष्टि की गई।
Limitations:
फ्लॉक के व्यावहारिक अनुप्रयोग और मापनीयता पर आगे अनुसंधान की आवश्यकता है।
विभिन्न आकारों और प्रकारों के एलएलएम के लिए सामान्यीकरण को सत्यापित करने की आवश्यकता है।
ब्लॉकचेन-आधारित प्रणालियों के प्रदर्शन और लागत-प्रभावशीलता पर आगे विश्लेषण की आवश्यकता है।
👍