Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Apprendre ce qui compte : Sélection probabiliste des tâches via l'information mutuelle pour le réglage fin du modèle

Created by
  • Haebom

Auteur

Prateek Chanda, Saral Sureka, Parth Pratim Chatterjee, Krishnateja Killamsetty, Nikhil Shivakumar Nayak, Ganesh Ramakrishnan

Contour

Cet article souligne que les performances d'optimisation des modèles linguistiques à grande échelle (LLM) dépendent fortement de la composition du mélange de données d'entraînement. Or, le processus de sélection du mélange optimal est manuel et heuristique. Par conséquent, nous proposons TASKPGM, un cadre d'optimisation de mélange évolutif et fondé sur des principes, qui sélectionne des ratios de tâches continus en minimisant une fonction d'énergie à l'aide de champs aléatoires de Markov (MRF). TASKPGM modélise les relations entre les tâches à l'aide de différences comportementales, telles que la divergence de Jensen-Shannon et l'information mutuelle ponctuelle, calculées à partir de la distribution prédictive de modèles d'optimisation à tâche unique. Il fournit une solution complète sous contraintes de groupe et équilibre de manière démontrable la représentativité et la diversité entre les tâches. Il démontre des gains de performance empiriques constants avec des outils d'évaluation tels que MMLU et BIGBench sur Llama 2 et Mistral, ainsi que des garanties théoriques (notamment une faible sous-modularité pour les variantes à budget limité). Au-delà des performances, TASKPGM fournit des informations interprétables sur l'influence des tâches et la composition du mélange, ce qui en fait un outil puissant pour un réglage fin LLM efficace et robuste.

Takeaways, Limitations

Takeaways:
Nous présentons TASKPGM, un cadre évolutif et fondé sur des principes pour l'optimisation du mélange de données pour le réglage fin du LLM.
Modélisation des relations inter-tâches à l'aide de la distribution prédictive d'un modèle de réglage fin à tâche unique, équilibrant représentativité et diversité.
Démontrer des améliorations constantes des performances sur divers outils d'évaluation tels que MMLU et BIGBench sur Llama 2 et Mistral.
Fournit des informations interprétables sur les influences du travail et la composition mixte.
Fournit des garanties théoriques (y compris une sous-modularité faible).
Limitations:
Des recherches supplémentaires sont nécessaires sur l’applicabilité pratique et les performances de généralisation de TASKPGM.
L'évaluation des performances de TASKPGM est nécessaire pour différentes architectures LLM et types de tâches.
Une analyse plus approfondie du coût de calcul et de l’efficacité du processus de minimisation de la fonction énergétique est nécessaire.
La pertinence des indicateurs de différence comportementale utilisés dans la modélisation MRF doit être revue.
👍