यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है। यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है। पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।
यह शोधपत्र इस बात पर प्रकाश डालता है कि जहाँ मौजूदा फ़ेडरेटेड लर्निंग पद्धतियाँ डेटा गोपनीयता पर केंद्रित रही हैं, वहीं बड़े पैमाने के भाषा मॉडल (एलएलएम) के उद्भव ने बौद्धिक संपदा (आईपी) सुरक्षा के महत्व को बढ़ा दिया है। इसलिए, एक ऐसे नए फ़ेडरेटेड लर्निंग दृष्टिकोण की आवश्यकता है जो संवेदनशील डेटा और मालिकाना मॉडल, दोनों की सुरक्षा कर सके। इस समस्या के समाधान के लिए, हम एक नई फ़ेडरेटेड लर्निंग पद्धति, FedQSN, का प्रस्ताव करते हैं। FedQSN कुछ मॉडल मापदंडों को बेतरतीब ढंग से छिपाता है और शेष मापदंडों को परिमाणित करता है, जिससे सर्वर द्वारा क्लाइंट को प्रेषित मॉडल गोपनीयता-संरक्षण प्रॉक्सी के रूप में कार्य करने में सक्षम होता है। विभिन्न मॉडलों और कार्यों पर प्रायोगिक परिणाम दर्शाते हैं कि FedQSN मौजूदा विधियों की तुलना में मॉडल पैरामीटर सुरक्षा को बेहतर बनाता है और साथ ही एक फ़ेडरेटेड लर्निंग वातावरण में मज़बूत मॉडल प्रदर्शन बनाए रखता है।
Takeaways, Limitations
•
Takeaways:
◦
हम बड़े पैमाने पर भाषा मॉडल के संघीय शिक्षण में बौद्धिक संपदा संरक्षण के लिए एक नया दृष्टिकोण प्रस्तुत करते हैं।
◦
हम मॉडल मापदंडों की गोपनीयता सुरक्षा बढ़ाने के लिए एक प्रभावी तरीका प्रस्तुत करते हैं।
◦
हमने प्रयोगात्मक रूप से प्रदर्शित किया है कि मौजूदा संघीय शिक्षण के प्रदर्शन से समझौता किए बिना गोपनीयता में सुधार किया जा सकता है।
•
Limitations:
◦
प्रस्तावित विधि की सुरक्षा पर सैद्धांतिक विश्लेषण का अभाव है।
◦
विभिन्न आक्रमण परिदृश्यों के प्रति प्रतिरोध का आगे मूल्यांकन आवश्यक है।
◦
प्रयोगात्मक परिणाम विशिष्ट मॉडलों और कार्यों तक सीमित हैं तथा उनकी सामान्यता निर्धारित करने के लिए आगे अनुसंधान की आवश्यकता है।