[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

FedWSQ: Aprendizaje federado eficiente con estandarización de pesos y cuantificación no uniforme con conocimiento de la distribución

Created by
  • Haebom

Autor

Seung-Wook Kim, Seongyeol Kim, Jiah Kim, Seowon Ji, Se-Ho Lee

Describir

FedWSQ es un novedoso marco de aprendizaje federado (FL) propuesto para abordar las limitaciones del aprendizaje federado (FL), que presenta un bajo rendimiento debido a los importantes desafíos de la heterogeneidad de los datos y las restricciones de comunicación. FedWSQ funciona integrando la estandarización de pesos (WS) y la cuantificación no uniforme con conocimiento de la distribución (DANUQ). WS mejora la robustez del modelo ante la heterogeneidad de los datos y la participación poco fiable del cliente al filtrar los componentes sesgados de las actualizaciones locales durante el aprendizaje. DANUQ minimiza los errores de cuantificación aprovechando las propiedades estadísticas de las actualizaciones locales del modelo. Como resultado, FedWSQ reduce significativamente la sobrecarga de comunicación, manteniendo al mismo tiempo una excelente precisión del modelo. Experimentos exhaustivos con diversos conjuntos de datos de referencia de FL demuestran que FedWSQ supera consistentemente a los métodos de FL existentes en diversos entornos de FL complejos, incluyendo heterogeneidad extrema de datos y escenarios de comunicación con tasas de bits ultrabajas.

Takeaways, Limitations

Takeaways:
Presentamos un método efectivo para mejorar el rendimiento del aprendizaje federado en entornos con gran heterogeneidad de datos y restricciones de comunicación.
Se logra una reducción en la sobrecarga de comunicación y una mejora en la precisión del modelo mediante una combinación de Normalización de Peso (WS) y Cuantización No Uniforme Consciente de la Distribución (DANUQ).
La superioridad del método propuesto se verifica a través de varios experimentos.
Limitations:
Se necesitan más estudios para determinar la aplicabilidad práctica del método propuesto.
Dado que los resultados corresponden a un conjunto de datos y una configuración específicos, se necesita una mayor validación de la generalización.
Es posible que se necesiten más investigaciones para determinar los parámetros óptimos para DANUQ.
👍