Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Apprenants fédérés en formation croisée pour une généralisation robuste sous hétérogénéité des données

Created by
  • Haebom

Auteur

Zhuang Qi, Lei Meng, Ruohan Zhang, Yu Wang, Xin Qi, Xiangxu Meng, Han Yu, Qiang Yang

Contour

Cet article propose une nouvelle méthode, FedCT, pour améliorer les stratégies d'apprentissage croisé en apprentissage fédéré. FedCT utilise trois modules pour résoudre les problèmes d'inadéquation des objectifs d'optimisation et d'hétérogénéité de l'espace des caractéristiques causés par les différences de distribution des données. Le module de diffusion des connaissances, sensible à la cohérence, optimise une stratégie d'attribution de modèles qui améliore la collaboration entre les clients pour un apprentissage fédéré efficace. Le module d'apprentissage par représentation multi-perspectives, guidé par les connaissances, exploite les connaissances des prototypes, tant au niveau global que local, afin de garantir la préservation des connaissances locales et la cohérence entre les connaissances locales et globales avant et après l'échange de modèles. Enfin, le module d'augmentation des caractéristiques basé sur le mixup augmente la diversité de l'espace des caractéristiques afin de mieux distinguer les échantillons complexes. Les résultats expérimentaux démontrent que FedCT surpasse les méthodes de pointe existantes et atténue la perte de connaissances, tant au niveau local que global.

Takeaways, Limitations

Takeaways:
Une nouvelle approche pour améliorer les performances de la formation croisée dans l'apprentissage fédéré
Atténuer la perte de connaissances en maintenant la cohérence des connaissances locales et mondiales
Des performances robustes sur diverses distributions de données
Améliorer le processus d'apprentissage fédéré grâce à une stratégie efficace d'allocation de modèles
Limitations:
Manque d’analyse détaillée du coût de calcul et de la complexité de la méthode proposée.
Les performances de généralisation doivent être vérifiées pour divers paramètres d’apprentissage fédéré et distributions de données.
Les résultats sont limités à un ensemble de données spécifique et des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité à d’autres ensembles de données.
👍