Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Atteinte à la confidentialité : une attaque de reconstruction de données par hyperplan dans l'apprentissage fédéré

Created by
  • Haebom

Auteur

Francesco Diana, André Nusser, Chuan Xu, Giovanni Neglia

Contour

Cet article présente une nouvelle méthode d'attaque par reconstruction de données pour pallier la vulnérabilité d'un serveur central malveillant dans Federated Learning (FL), capable de reconstruire les données privées d'un client. Nous surmontons les limites des méthodes existantes, qui reposent sur des hypothèses concernant la distribution des données client (__T38186_____) et sont peu efficaces pour les lots de petite taille. En exploitant une nouvelle perspective géométrique sur des couches entièrement connectées, nous générons des paramètres de modèle malveillants capables de reconstruire parfaitement des lots de données de taille arbitraire sans connaissance préalable des données client. Des expériences sur des jeux de données image et tabulaire démontrent que notre méthode surpasse les méthodes existantes, permettant une reconstruction parfaite de lots de données deux fois plus importants que la méthode précédente la plus performante.

Takeaways, Limitations_

Takeaways:
Cela pose un sérieux défi aux croyances existantes sur les garanties de confidentialité des données dans l’apprentissage fédéré.
Nous présentons une nouvelle technique d’attaque qui surmonte les limites des attaques de reconstruction de données existantes.
Permet une reconstruction efficace des données pour de grands lots de données.
Fournit des Takeaways importants pour améliorer la sécurité des systèmes d’apprentissage fédérés.
Limitations:
La technique d’attaque présentée se concentre sur un type spécifique d’architecture de réseau neuronal (couches entièrement connectées) et peut ne pas être applicable aux réseaux neuronaux avec d’autres architectures.
Il se peut qu’il ne reflète pas pleinement la complexité des environnements d’apprentissage fédérés du monde réel.
Le succès d’une attaque peut dépendre des caractéristiques de l’ensemble de données.
👍