Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

CLoQ: Mejora del ajuste fino de LLM cuantificados mediante la inicialización de LoRA calibrada

Created by
  • Haebom

Autor

Yanxia Deng, Aozhong Zhang, Selcuk Gurses, Naigang Wang, Zi Yang, Penghang Yin

Describir

Este artículo presenta la Inicialización Calibrada de LoRA para LLM Cuantizados (CLoQ), un método ampliamente utilizado para el ajuste fino de modelos de lenguaje a gran escala (LLM) para subtareas eficientes en entornos con recursos limitados. Este enfoque aborda los desafíos inherentes a la aplicación de la técnica de Adaptación de Bajo Rango (LoRA) a LLM cuantizados. CLoQ se centra en minimizar las diferencias capa por capa entre el LLM original y el LLM cuantizado durante la fase de inicialización. Aprovecha un pequeño conjunto de datos de calibración para cuantizar LLM preentrenados y determinar los componentes LoRA óptimos para cada capa, estableciendo así una base sólida para el ajuste fino posterior. Una de las contribuciones clave de este estudio es la presentación de nuevos resultados teóricos que permiten la construcción precisa y cerrada de componentes LoRA óptimos. Demostramos experimentalmente la eficacia de CLoQ en varias tareas, incluida la generación de lenguaje, el razonamiento aritmético y el razonamiento de sentido común, demostrando su rendimiento superior sobre los métodos de ajuste fino de LoRA existentes para LLM cuantificados, particularmente en anchos de bits ultrabajos.

Takeaways, Limitations

Takeaways:
Se presenta un nuevo método para mejorar la eficiencia del ajuste fino de LoRA en LLM cuantificado.
Consiga un rendimiento excelente incluso con anchos de broca ultrabajos.
Presentamos nuevos resultados teóricos para la configuración precisa y cerrada de componentes LoRA óptimos.
Validación de la efectividad en diversas subtareas.
Limitations:
La mejora del rendimiento de CLoQ puede depender del tamaño y la calidad del conjunto de datos de calibración.
Los resultados teóricos presentados pueden ser válidos sólo bajo ciertas condiciones.
Es necesario examinar la generalización de varias técnicas de cuantificación.
Existe la posibilidad de que los resultados experimentales se limiten a tareas y conjuntos de datos específicos.
👍