Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Démasquage théorique des attaques par inférence contre les clients protégés par LDP dans les modèles de vision fédérée

Created by
  • Haebom

Auteur

Quan Nguyen, Minh N. Vu, Truc Nguyen, My T. Thai

Contour

Cet article aborde les risques pour la vie privée dans l'apprentissage fédéré, notamment sa vulnérabilité aux attaques par inférence d'appartenance (AIA). Nous soulignons que les études existantes ne prennent pas en compte la confidentialité différentielle locale (LDP) ou n'apportent pas de garanties théoriques sur le taux de réussite des attaques sur les données protégées par LDP. Nous dérivons des bornes inférieures théoriques sur le taux de réussite des AIA à faible temps polynomial qui exploitent les vulnérabilités des couches entièrement connectées ou d'auto-attention. Les évaluations expérimentales sur les modèles de vision fédérée démontrent que les risques pour la vie privée persistent même avec LDP, et que le bruit introduit pour atténuer les attaques réduit considérablement l'utilité du modèle.

Takeaways, Limitations

Takeaways: Nous démontrons que l'application du LDP n'élimine pas complètement le risque d'AIM dans l'apprentissage fédéré, ce qui nécessite un compromis entre confidentialité et utilité du modèle. Nous démontrons clairement les limites du LDP en dérivant une borne inférieure théorique pour l'AIM à temps polynomial faible.
Limitations: Cette étude se limite à l'analyse de types spécifiques de réseaux neuronaux (couches entièrement connectées et d'auto-attention), et des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité à d'autres architectures. L'évaluation expérimentale se limite à un modèle de vision fédérée spécifique, et la généralisabilité à d'autres modèles ou ensembles de données doit être vérifiée. Il manque une méthodologie spécifique pour trouver l'équilibre optimal entre confidentialité et performances du modèle.
👍