[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Apprendre ce qui compte : Sélection probabiliste des tâches via l'information mutuelle pour le réglage fin du modèle

Created by
  • Haebom

Auteur

Prateek Chanda, Saral Sureka, Parth Pratim Chatterjee, Krishnateja Killamsetty, Nikhil Shivakumar Nayak, Ganesh Ramakrishnan

Contour

Dans cet article, nous montrons que les performances d'ajustement fin des modèles linguistiques à grande échelle (LLM) dépendent fortement de la composition du mélange de données d'entraînement, mais que la sélection de la proportion optimale de mélange de données est un processus manuel et heuristique. Par conséquent, nous présentons TASKPGM, un cadre systématique et évolutif qui sélectionne des proportions de tâches continues en minimisant une fonction d'énergie sur un champ aléatoire de Markov (MRF). TASKPGM modélise les relations entre les tâches à l'aide de différences comportementales telles que la divergence Jensen-Shannon et l'information mutuelle ponctuelle calculées à partir de la distribution prédictive de modèles d'ajustement fin à tâche unique. Il fournit des solutions sous forme fermée sous contraintes de groupe et garantit un équilibre entre représentativité et diversité entre les tâches. Il montre des gains de performance empiriques constants sur Llama 2 et Mistral, ainsi que sur des ensembles d'évaluation tels que MMLU et BIGBench, fournissant des informations interprétables sur l'influence des tâches et la composition du mélange.

Takeaways, Limitations

Takeaways:
Un cadre d'optimisation de mélange de données systématique et évolutif pour le réglage fin du LLM, TASKPGM, est présenté.
Modélisation des relations entre les tâches à l'aide de la distribution prédictive d'un modèle de réglage fin à tâche unique, permettant d'atteindre un équilibre entre représentativité et diversité.
Démontre des améliorations de performances sur des ensembles d'évaluation tels que MMLU et BIGBench sur Llama 2 et Mistral
Fournit des informations interprétables sur l'influence du travail et la composition mixte
Limitations:
Manque de discussion sur les ressources informatiques nécessaires à l’application pratique de TASKPGM.
Des recherches supplémentaires sont nécessaires sur la généralisabilité à différentes architectures et ensembles de données LLM.
Il est nécessaire d’explorer d’autres types de méthodes de modélisation des relations de travail au-delà des différences comportementales proposées.
👍