दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

फेडरेटेड विज़न मॉडल में LDP-संरक्षित क्लाइंट के विरुद्ध अनुमान हमलों का सैद्धांतिक रूप से पर्दाफाश करना

Created by
  • Haebom

लेखक

क्वान गुयेन, मिन्ह एन. वु, ट्रूक गुयेन, माई टी. थाई

रूपरेखा

यह शोधपत्र फ़ेडरेटेड लर्निंग में गोपनीयता जोखिमों, विशेष रूप से सदस्यता अनुमान हमलों (MIAs) के प्रति इसकी संवेदनशीलता पर केंद्रित है। हम इस बात पर प्रकाश डालते हैं कि मौजूदा अध्ययन या तो स्थानीय विभेदक गोपनीयता (LDP) पर विचार करने में विफल रहे हैं या LDP-संरक्षित डेटा पर हमले की सफलता दर की सैद्धांतिक गारंटी प्रदान नहीं करते हैं। हम निम्न-बहुपद-समय MIA की सफलता दर की सैद्धांतिक निचली सीमाएँ निकालते हैं जो पूरी तरह से जुड़े हुए या स्व-ध्यान परतों में कमजोरियों का फायदा उठाते हैं। फ़ेडरेटेड विज़न मॉडल पर प्रायोगिक मूल्यांकन दर्शाते हैं कि गोपनीयता जोखिम LDP के साथ भी बने रहते हैं, और हमलों को कम करने के लिए पेश किया गया शोर मॉडल की उपयोगिता को काफी कम कर देता है।

Takeaways, Limitations

Takeaways: हम दर्शाते हैं कि LDP लागू करने से फ़ेडरेटेड लर्निंग में MIA का जोखिम पूरी तरह से समाप्त नहीं होता, जिसके लिए गोपनीयता और मॉडल उपयोगिता के बीच समझौता करना ज़रूरी हो जाता है। हम निम्न बहुपद-समय MIA की सैद्धांतिक निचली सीमा निकालकर LDP की सीमाओं को स्पष्ट रूप से प्रदर्शित करते हैं।
Limitations: विश्लेषण एक विशिष्ट प्रकार के न्यूरल नेटवर्क (पूरी तरह से जुड़े और स्व-ध्यान परतें) तक सीमित है, और अन्य आर्किटेक्चर पर इसकी सामान्यता निर्धारित करने के लिए और अधिक शोध की आवश्यकता है। प्रायोगिक मूल्यांकन एक विशिष्ट फ़ेडरेटेड विज़न मॉडल तक सीमित है, और अन्य मॉडलों या डेटासेट पर इसकी सामान्यता को सत्यापित करने की आवश्यकता है। गोपनीयता और मॉडल प्रदर्शन के बीच इष्टतम संतुलन खोजने के लिए विशिष्ट कार्यप्रणाली का अभाव है।
👍