Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

FedSEA-LLaMA: Un marco de división federada seguro, eficiente y adaptable para modelos de lenguaje grandes

Created by
  • Haebom

Autor

Zishuai Zhang, Hainan zhang, Weihua Li, Qinnan zhang, jin Dong, Yongxin Tong, Zhiming Zheng

Describir

Este artículo propone FedSEA-LLaMA, un modelo de partición federada basado en transformadores para entornos de aprendizaje federados, que aprovecha los datos privados para mejorar el rendimiento de los modelos lingüísticos a gran escala (LLM), a la vez que aborda los silos de datos y las altas demandas computacionales. FedSEA-LLaMA garantiza la privacidad de los datos distribuyendo la mayoría de los parámetros del modelo a servidores (o clientes distribuidos), manteniendo solo una pequeña parte en los clientes. Para abordar las limitaciones de los modelos de partición federada existentes, como la vulnerabilidad del cifrado P2P, la alta sobrecarga de comunicación debido al aprendizaje secuencial y la inferencia, y el problema de los puntos de división fijos, proponemos la transmisión vectorial segura mediante inyección de ruido gaussiano, la reducción de los costes de comunicación mediante la compresión de máscara de atención y la colaboración en caché KV, y el ajuste dinámico de los puntos de división por parte del usuario. Los resultados experimentales en tareas de comprensión del lenguaje natural, resumen y preguntas-respuesta conversacionales demuestran que FedSEA-LLaMA logra hasta ocho veces más velocidad de entrenamiento e inferencia en comparación con LLaMA2 centralizado, sin ninguna degradación del rendimiento. Además, demostramos su seguridad y adaptabilidad a través del análisis de ataques a la privacidad y el análisis de varios puntos de división.

Takeaways, Limitations

Takeaways:
Presentamos un nuevo marco de aprendizaje federado que mejora simultáneamente el rendimiento del LLM y garantiza la privacidad de los datos al aprovechar los datos personales.
Resuelve eficazmente tres problemas principales Limitations (cifrado P2P, procesamiento secuencial, punto de división fijo) de los modelos de partición federada existentes.
Logra un rendimiento comparable a LLaMA2 centralizado y una aceleración de hasta 8 veces en una variedad de tareas, incluida la comprensión del lenguaje natural, el resumen y la respuesta a preguntas conversacionales.
Adaptabilidad a requisitos específicos del trabajo mediante ajuste dinámico del punto de división.
Limitations:
Se necesitan más investigaciones para determinar la aplicabilidad y escalabilidad del método propuesto a entornos del mundo real.
La evaluación de robustez es necesaria para diversas distribuciones de datos y entornos de red.
Se necesita más investigación sobre la degradación del rendimiento debido a la inyección de ruido gaussiano y configuraciones óptimas del nivel de ruido.
Se necesita investigación de optimización para entornos de hardware específicos.
👍