Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Défense contre les fuites de gradient avec module Key-Lock pour l'apprentissage fédéré

Created by
  • Haebom

Auteur

Hanchi Ren, Jingjing Deng, Xianghua Xie

Contour

Cet article présente une nouvelle perspective et une solution au problème de fuite de gradient qui se produit dans l'apprentissage fédéré (AF). L'apprentissage fédéré existant préserve la confidentialité en partageant uniquement les gradients du modèle tout en conservant les données privées en local. Cependant, les gradients eux-mêmes peuvent contenir des informations sensibles, ce qui soulève des inquiétudes. Cet article fournit une analyse théorique de ce problème de fuite de gradient et propose une nouvelle technique de défense qui empêche la fuite de gradient dans des structures de modèle arbitraires grâce à un module de verrouillage de clé privée. La méthode proposée empêche la reconstruction des données privées en partageant uniquement les gradients verrouillés, tout en minimisant la dégradation des performances du modèle. La robustesse de la méthode proposée est vérifiée par des expérimentations utilisant divers modèles et benchmarks.

Takeaways, Limitations

Takeaways:
Fournit une compréhension théorique approfondie du problème de fuite de gradient dans l'apprentissage fédéré.
Nous présentons une technique efficace de défense contre les fuites de gradient applicable à des structures de modèles arbitraires.
L’efficacité de la technique proposée est démontrée par des preuves théoriques et des vérifications expérimentales.
Il contribue à améliorer les performances de protection de la vie privée de l’apprentissage fédéré.
Limitations:
Une description détaillée du processus de conception et de formation du module de verrouillage à clé proposé peut faire défaut.
Il est nécessaire de procéder à une évaluation plus complète des performances défensives contre différents types d’attaques.
Des recherches supplémentaires sont nécessaires pour déterminer son applicabilité et ses performances dans des environnements d’apprentissage fédérés réels.
👍