Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Ajuste de instrucciones federadas con uso eficiente de datos para modelos de lenguaje grandes

Created by
  • Haebom

Autor

Zhen Qin, Zhaomin Wu, Bingsheng He, Shuiguang Deng

Describir

Este artículo aborda el ajuste de instrucciones, un paso crucial para mejorar la capacidad de respuesta de los modelos de lenguaje grandes (LLM) preentrenados a las instrucciones. El aprendizaje federado (FL) es eficaz para el ajuste de LLM, ya que ayuda a los clientes a utilizar sus enormes datos de instrucciones privadas y mejora la diversidad de datos. Mientras que el ajuste federado tradicional utiliza todos los datos locales, lo que genera una sobrecarga computacional excesiva y un sobreajuste de datos locales, las soluciones centralizadas eficientes en el uso de datos no son adecuadas para FL debido a problemas de privacidad. En este artículo, presentamos un método de ajuste de instrucciones federado eficiente en el uso de datos, denominado FedHDS. FedHDS ajusta los LLM utilizando un subconjunto representativo de datos de borde, lo que reduce la redundancia de datos dentro y entre clientes sin compartir datos sin procesar. Los resultados experimentales, utilizando diversos LLM, conjuntos de datos y divisiones, muestran que FedHDS mejora Rouge-L en tareas desconocidas en un promedio del 10,72 %, en comparación con los métodos de ajuste de instrucciones federadas de datos completos de última generación, a la vez que mejora la eficiencia del entrenamiento hasta diez veces utilizando menos del 1,5 % de muestras de datos.

Takeaways, Limitations

Takeaways:
Un nuevo método para optimizar la instrucción con datos eficientes en entornos de aprendizaje federados (FedHDS)
Rendimiento de Rouge-L mejorado y eficiencia de entrenamiento en comparación con los métodos existentes (uso de datos reducido)
Abordar las preocupaciones sobre la privacidad y garantizar la diversidad de datos
Limitations:
Se necesita más investigación sobre el rendimiento de generalización del método propuesto.
Se necesitan experimentos más amplios en diversos LLM y conjuntos de datos.
Se necesita investigación adicional sobre los problemas y soluciones que pueden surgir al aplicarlo a entornos reales.
👍