Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Apprentissage fédéré hétérogène efficace en communication avec élan généralisé de la balle lourde

Created by
  • Haebom

Auteur

Riccardo Zaccone, Sai Praneeth Karimireddy, Carlo Masone, Marco Ciccone

Contour

Cet article présente une étude visant à résoudre le problème __T315924_____ de l'apprentissage fédéré (FL), une méthode d'apprentissage qui suscite l'intérêt en matière de confidentialité dans un environnement distribué. Les méthodes d'apprentissage fédéré existantes souffrent d'une dégradation des performances due à l'hétérogénéité des données et à la participation partielle des clients. La technique du momentum, en particulier, est considérée comme une méthode prometteuse pour surmonter l'hétérogénéité statistique, mais les approches existantes ne parviennent pas à surpasser FedAvg en raison du problème des mises à jour biaisées des clients récemment échantillonnés. Dans cet article, nous proposons la méthode du momentum généralisé à boule lourde (GHBM) pour résoudre ce problème et démontrons théoriquement sa convergence dans un environnement avec une hétérogénéité infinie des données et une participation partielle cyclique. De plus, nous présentons une variante adaptative et efficace en termes de communication du GHBM, présentant la même complexité de communication que FedAvg dans un environnement où les clients peuvent conserver leur état. Nous confirmons les résultats théoriques par des expériences approfondies sur des tâches visuelles et linguistiques, et montrons que GHBM améliore considérablement les performances de pointe existantes, en particulier dans les environnements à grande échelle avec une forte hétérogénéité des données et une faible participation des clients.

Takeaways, Limitations

Takeaways:
Nous montrons que l'élan généralisé de la balle lourde (GHBM) peut améliorer considérablement les performances de l'apprentissage fédéré avec des problèmes d'hétérogénéité des données et de participation partielle des clients.
Nous prouvons théoriquement la convergence du GHBM, approfondissant ainsi notre compréhension de l'application des techniques d'élan à l'apprentissage fédéré.
Nous présentons une variante de GHBM efficace en termes de communication, augmentant son applicabilité aux systèmes d'apprentissage fédérés à grande échelle du monde réel.
Nous validons la supériorité du GHBM à travers des résultats expérimentaux sur diverses tâches visuelles et langagières.
Limitations:
L'amélioration des performances du GHBM proposé est principalement observée dans certains environnements (grande échelle, forte hétérogénéité des données, faible participation des clients). Dans d'autres environnements, l'amélioration des performances peut être limitée.
Les expériences étaient limitées à un ensemble de données et à une tâche spécifiques, nécessitant des recherches supplémentaires sur la généralisabilité.
Les variantes efficaces en matière de communication qui supposent la maintenance de l’état du client peuvent ne pas être applicables à tous les environnements.
👍