Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Aprendizaje federado robusto bizantino mediante redes generativas antagónicas

Created by
  • Haebom

Autor

Usama Zafar, André Teixeira, Salman Toor

Describir

Este artículo presenta un método para mejorar la robustez del aprendizaje federado (FL), que permite el aprendizaje colaborativo de modelos entre clientes distribuidos sin compartir datos sin procesar. Las técnicas de defensa existentes presentan limitaciones fundamentales, como la dependencia de reglas de agregación robustas o heurísticas cuyos límites de error aumentan a medida que aumenta la heterogeneidad del cliente, o métodos basados ​​en la detección que requieren un conjunto de datos externo fiable para su validación. En este artículo, presentamos un marco de defensa que sintetiza datos representativos para validar las actualizaciones del cliente en el servidor mediante una red generativa adversarial condicional (cGAN). Este método elimina la dependencia de conjuntos de datos externos, se adapta a diversas estrategias de ataque y se integra a la perfección en los flujos de trabajo estándar de FL. Amplios experimentos con conjuntos de datos de referencia demuestran que el marco propuesto distingue con precisión entre clientes maliciosos e inofensivos, manteniendo al mismo tiempo la precisión general del modelo. Además de la robustez bizantina, investigamos la representatividad de los datos sintéticos, el coste computacional del entrenamiento de cGAN, y la transparencia y escalabilidad del enfoque.

Takeaways, Limitations

Takeaways:
Se presenta un nuevo marco de defensa de aprendizaje federado capaz de verificar actualizaciones de clientes sin conjuntos de datos externos.
Adaptable a varios ataques bizantinos y se integra con flujos de trabajo FL estándar.
Mantenga la precisión del modelo mientras distingue con exactitud entre clientes maliciosos y benignos.
Proporciona análisis sobre la representatividad de los datos sintéticos, el costo de entrenamiento de cGAN y la transparencia y escalabilidad del enfoque.
Limitations:
Se necesita más investigación sobre los costos computacionales del entrenamiento cGAN y la representatividad de los datos sintéticos.
Se necesitan más experimentos para determinar el rendimiento de la generalización en diferentes tipos de ataques.
Se necesita evaluación de escalabilidad y rendimiento en entornos reales.
👍