Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

La distillation des caractéristiques est le meilleur choix pour l'apprentissage fédéré à modèle hétérogène

Created by
  • Haebom

Auteur

Yichen Li, Xiuying Wang, Wenchao Xu, Haozhao Wang, Yining Qi, Jiahua Dong, Ruixuan Li

Contour

Cet article propose la distillation de caractéristiques pour l'apprentissage fédéré hétérogène (FedFD), une nouvelle méthode visant à améliorer l'agrégation des connaissances dans l'apprentissage fédéré hétérogène (Hetero-FL). L'Hetero-FL actuel utilise des techniques de distillation d'ensemble pour améliorer les performances d'un modèle global par distillation logit, mais présente l'inconvénient de ne pas pouvoir compenser les biais de connaissance liés aux modèles hétérogènes. Pour résoudre ce problème, FedFD propose un paradigme de distillation de connaissances fédérées d'ensemble basé sur les caractéristiques, qui améliore l'intégration des connaissances entre modèles hétérogènes en alignant les informations sur les caractéristiques par des projections orthogonales. Le modèle global du serveur gère des couches de projection pour chaque architecture de modèle client afin d'aligner individuellement les caractéristiques, et des techniques orthogonales sont utilisées pour reparamétrer les couches de projection afin d'atténuer les biais de connaissance et de maximiser les connaissances distillées. Les résultats expérimentaux démontrent que FedFD surpasse les méthodes de pointe existantes.

Takeaways, Limitations

Takeaways:
Une nouvelle approche pour lutter contre les biais de connaissance dans l'apprentissage fédéré à modèle hétérogène
Surmonter les limites de la distillation log-it conventionnelle grâce à la distillation basée sur les fonctionnalités
Proposition d'une méthode d'intégration des connaissances stable et efficace utilisant la projection orthogonale
A démontré des performances supérieures par rapport aux méthodes de pointe existantes
Limitations:
Une analyse plus approfondie du coût de calcul et de la complexité de la méthode proposée est nécessaire.
La nécessité d’évaluer les performances de généralisation sur divers modèles et ensembles de données hétérogènes.
Des recherches supplémentaires sont nécessaires sur les problèmes potentiels et les solutions qui peuvent survenir lors de l’application de ce principe à des environnements réels.
👍