Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Aprendizaje federado heterogéneo eficiente en la comunicación con impulso generalizado de bola pesada

Created by
  • Haebom

Autor

Riccardo Zaccone, Sai Praneeth Karimireddy, Carlo Masone, Marco Ciccone

Describir

Este artículo presenta un estudio sobre la solución del problema Limitations del Aprendizaje Federado (FL), método de aprendizaje que está cobrando relevancia considerando la privacidad en entornos distribuidos. Los métodos de aprendizaje federado existentes presentan una degradación del rendimiento debido a la heterogeneidad de los datos y la participación parcial de los clientes. En particular, la técnica de momentum se considera un método prometedor para superar la heterogeneidad estadística, pero los enfoques existentes no superan a FedAvg debido al problema de las actualizaciones sesgadas en los clientes recientemente muestreados. En este artículo, proponemos el Momentum Generalizado de Bola Pesada (GHBM) para resolver este problema y demostrar teóricamente su convergencia en un entorno con heterogeneidad infinita de datos y participación parcial cíclica. Además, presentamos una variante adaptativa y eficiente en comunicación de GHBM que presenta la misma complejidad de comunicación que FedAvg en un entorno donde los clientes pueden mantener su estado. Confirmamos los resultados teóricos mediante experimentos exhaustivos en tareas visuales y de lenguaje, y demostramos que GHBM mejora significativamente el rendimiento de vanguardia, especialmente en entornos a gran escala con alta heterogeneidad de datos y baja participación de los clientes.

Takeaways, Limitations

Takeaways:
Demostramos que el impulso de bola pesada generalizado (GHBM) puede mejorar significativamente el rendimiento del aprendizaje federado con heterogeneidad de datos y problemas de participación parcial del cliente.
Demostramos teóricamente la convergencia de GHBM, profundizando así nuestra comprensión de la aplicación de técnicas de momento al aprendizaje federado.
Presentamos una variante de GHBM eficiente en términos de comunicación, aumentando su aplicabilidad a sistemas de aprendizaje federado a gran escala del mundo real.
Validamos la superioridad de GHBM a través de resultados experimentales en diversas tareas visuales y de lenguaje.
Limitations:
La mejora del rendimiento del GHBM propuesto se observa principalmente en ciertos entornos (gran escala, alta heterogeneidad de datos y baja participación del cliente). En otros entornos, la mejora del rendimiento puede ser limitada.
Los experimentos se limitaron a un conjunto de datos y una tarea específicos, lo que requirió más investigación sobre generalización.
Las variantes que optimizan la comunicación y que suponen el mantenimiento del estado del cliente pueden no ser aplicables a todos los entornos.
👍