Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

CLoQ : Amélioration du réglage fin des LLM quantifiés via l'initialisation LoRA calibrée

Created by
  • Haebom

Auteur

Yanxia Deng, Aozhong Zhang, Selcuk Gurses, Naigang Wang, Zi Yang, Penghang Yin

Contour

Cet article présente l'initialisation LoRA calibrée pour les LLM quantifiés (CLoQ), une méthode largement utilisée pour affiner les modèles de langage à grande échelle (LLM) afin d'optimiser les sous-tâches dans des environnements aux ressources limitées. Cette approche répond aux défis inhérents à l'application de la technique d'adaptation de bas rang (LoRA) aux LLM quantifiés. CLoQ vise à minimiser les différences couche par couche entre le LLM d'origine et le LLM quantifié pendant la phase d'initialisation. Elle exploite un petit jeu de données d'étalonnage pour quantifier les LLM pré-entraînés et déterminer les composants LoRA optimaux pour chaque couche, établissant ainsi une base solide pour l'affinement ultérieur. L'une des contributions clés de cette étude est la présentation de nouveaux résultats théoriques permettant la construction précise et fermée de composants LoRA optimaux. Nous démontrons expérimentalement l'efficacité de CLoQ dans diverses tâches, notamment la génération de langage, le raisonnement arithmétique et le raisonnement de bon sens, démontrant ses performances supérieures par rapport aux méthodes de réglage fin LoRA existantes pour les LLM quantifiés, en particulier à des largeurs de bits ultra-faibles.

Takeaways, Limitations

Takeaways:
Une nouvelle méthode est présentée pour améliorer l’efficacité du réglage fin LoRA dans le LLM quantifié.
Obtenez d'excellentes performances même avec des largeurs de bits ultra-faibles.
Nous présentons de nouveaux résultats théoriques pour la configuration précise et fermée de composants LoRA optimaux.
Validation de l'efficacité dans diverses sous-tâches.
Limitations:
L’amélioration des performances de CLoQ peut dépendre de la taille et de la qualité de l’ensemble de données d’étalonnage.
Les résultats théoriques présentés ne peuvent être valables que sous certaines conditions.
Il est nécessaire d’examiner la généralisabilité de diverses techniques de quantification.
Il est possible que les résultats expérimentaux soient limités à des tâches et à des ensembles de données spécifiques.
👍