Cet article aborde les risques pour la vie privée dans l'apprentissage fédéré, notamment sa vulnérabilité aux attaques par inférence d'appartenance (AIA). Nous soulignons que les études existantes ne prennent pas en compte la confidentialité différentielle locale (LDP) ou n'apportent pas de garanties théoriques sur le taux de réussite des attaques sur les données protégées par LDP. Nous dérivons des bornes inférieures théoriques sur le taux de réussite des AIA à faible temps polynomial qui exploitent les vulnérabilités des couches entièrement connectées ou d'auto-attention. Les évaluations expérimentales sur les modèles de vision fédérée démontrent que les risques pour la vie privée persistent même avec LDP, et que le bruit introduit pour atténuer les attaques réduit considérablement l'utilité du modèle.