Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Identifier la vérité du modèle global : une solution générique pour se défendre contre les attaques byzantines et les attaques par porte dérobée dans l'apprentissage fédéré (version complète)

Created by
  • Haebom

Auteur

Sheldon C. Ebron, Meiying Zhang, Kan Yang

Contour

Dans cet article, nous proposons FedTruth, une technique de défense contre les attaques par empoisonnement de modèle, telles que les attaques byzantines et les attaques par porte dérobée en apprentissage fédéré (FL), où des clients malveillants affectent le modèle entraîné en injectant des erreurs dans ses mises à jour. Les techniques de défense existantes utilisent des jeux de données racines bénins ou une moyenne/médiane tronquée, ce qui peut éliminer les contributions d'ensembles de données irréalistes ou minoritaires. FedTruth estime la mise à jour du modèle de vérité terrain parmi toutes les mises à jour du modèle à l'aide de pondérations agrégées dynamiques, sans hypothèses spécifiques sur la distribution des données bénignes ou malveillantes, ni sur l'accès au jeu de données racine bénin. Ainsi, elle prend en compte les contributions potentielles de tous les clients bénins. Les résultats expérimentaux montrent que FedTruth réduit l'impact des mises à jour de modèle malveillantes sur les attaques byzantines et les attaques par porte dérobée, et qu'il est efficace dans les systèmes FL à grande échelle.

Takeaways, Limitations

Takeaways:
Présentation d'une nouvelle technique de défense efficace contre les attaques d'empoisonnement de modèle dans l'apprentissage fédéré
Fonctionne sans ensembles de données à racines positives ni hypothèses de distribution de données spécifiques
Améliorer l’équité en tenant compte des contributions de tous les clients positifs
Efficacité prouvée dans les systèmes d'apprentissage fédérés à grande échelle
Limitations:
Manque de description détaillée de la manière dont l'algorithme FedTruth proposé détermine les pondérations dynamiques (des informations supplémentaires sur la manière dont les pondérations spécifiques sont calculées sont nécessaires)
Nécessité de présenter des résultats expérimentaux approfondis pour différents types et paramètres d'attaque (vérification de la robustesse pour différents scénarios d'attaque)
Manque d’analyse des frais généraux et de la dégradation des performances qui peuvent survenir lorsqu’ils sont appliqués à de véritables systèmes d’apprentissage fédérés.
👍