Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Apprenants fédérés en formation croisée pour une généralisation robuste sous hétérogénéité des données

Created by
  • Haebom

Auteur

Zhuang Qi, Lei Meng, Ruohan Zhang, Yu Wang, Xin Qi, Xiangxu Meng, Han Yu, Qiang Yang

Contour

Cet article présente une nouvelle méthode, l'entraînement croisé fédéré (FedCT), qui améliore les stratégies d'entraînement croisé dans l'apprentissage fédéré. Pour pallier les limites de l'entraînement croisé actuel, telles que les objectifs d'optimisation non concordants et l'hétérogénéité de l'espace des caractéristiques due aux différences de distribution des données, cette méthode exploite la distillation des connaissances à partir de perspectives locales et globales. Plus précisément, elle se compose de trois modules : un module de propagation des connaissances tenant compte de la cohérence, un module d'apprentissage de représentations multi-perspectives guidé par les connaissances et un module d'augmentation des caractéristiques basé sur le mixup. Ces modules préservent les connaissances locales, maintiennent la cohérence entre les connaissances locales et globales et augmentent la diversité de l'espace des caractéristiques, améliorant ainsi les performances. Les résultats expérimentaux obtenus à partir de quatre jeux de données montrent que FedCT surpasse les méthodes de pointe existantes.

Takeaways, Limitations

Takeaways:
Une nouvelle stratégie de formation croisée est présentée pour résoudre efficacement les problèmes causés par les différences de distribution des données dans l’apprentissage fédéré.
Atténuer la perte de connaissances et améliorer les performances grâce à la distillation des connaissances locales et mondiales.
Mettre en œuvre un processus d’apprentissage fédéré efficace grâce à une combinaison de différents modules.
Excellente vérification des performances sur divers ensembles de données
Limitations:
Manque d’analyse détaillée de la complexité de calcul et du nombre d’opérations de la méthode proposée.
Des recherches supplémentaires sont nécessaires sur les performances de généralisation dans divers environnements d’apprentissage fédérés et ensembles de données.
Manque d'explications détaillées sur les paramètres optimaux des hyperparamètres pour des ensembles de données spécifiques.
👍