यह शोधपत्र फ़ेडरेटेड लर्निंग में गोपनीयता जोखिमों, विशेष रूप से सदस्यता अनुमान हमलों (MIAs) के प्रति इसकी संवेदनशीलता पर केंद्रित है। हम इस बात पर प्रकाश डालते हैं कि मौजूदा अध्ययन या तो स्थानीय विभेदक गोपनीयता (LDP) पर विचार करने में विफल रहे हैं या LDP-संरक्षित डेटा पर हमले की सफलता दर की सैद्धांतिक गारंटी प्रदान नहीं करते हैं। हम निम्न-बहुपद-समय MIA की सफलता दर की सैद्धांतिक निचली सीमाएँ निकालते हैं जो पूरी तरह से जुड़े हुए या स्व-ध्यान परतों में कमजोरियों का फायदा उठाते हैं। फ़ेडरेटेड विज़न मॉडल पर प्रायोगिक मूल्यांकन दर्शाते हैं कि गोपनीयता जोखिम LDP के साथ भी बने रहते हैं, और हमलों को कम करने के लिए पेश किया गया शोर मॉडल की उपयोगिता को काफी कम कर देता है।