Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

DaMoC : Sélection efficace du modèle de langage optimal pour affiner les tâches du domaine en fonction de la compression des données et du modèle

Created by
  • Haebom

Auteur

Wei Huang, Huang Wei, Yinggui Wang

Contour

Cet article propose un cadre de compression de données et de modèles (DaMoC) qui répond au problème de la sélection rapide du modèle optimal parmi de nombreux modèles de langage à grande échelle (LLM) open source, afin de l'affiner pour des tâches spécifiques. DaMoC comprend deux aspects : les données et le modèle. Au niveau des données, nous classons les méthodes de filtrage des données en trois paradigmes : approches basées sur la distribution, approches basées sur la qualité et approches hybrides. Nous obtenons une compression des jetons en augmentant la densité des jetons clés et optimisons la représentation par une réécriture itérative du texte à l'aide de LLM. Au niveau du modèle, nous utilisons des scores de similarité hiérarchique pour évaluer l'importance de chaque couche, en éliminant les couches de faible importance et en introduisant un paradigme de fusion clairsemée afin de maximiser la préservation des caractéristiques du modèle d'origine. Grâce à des expériences approfondies sur quatre ensembles de données (Q&R médicales, Q&R financières, Q&R générales et compréhension écrite), nous démontrons que la sélection du LLM optimal réduit le temps d'apprentissage d'environ 20 fois.

Takeaways, Limitations

Takeaways:
Nous fournissons un cadre permettant de sélectionner efficacement le modèle optimal pour une tâche spécifique parmi différents LLM open source.
Réduit considérablement le temps de formation pour le réglage fin du LLM (environ 20x) grâce à la compression des données et des modèles.
Nous catégorisons systématiquement les méthodologies de filtrage des données et présentons des stratégies efficaces pour affiner le LLM.
Limitations:
Les performances du cadre proposé peuvent dépendre de l'ensemble de données et de la tâche utilisés. Des expériences supplémentaires sur divers ensembles de données et tâches sont nécessaires.
L’absence d’une description détaillée de la méthodologie spécifique du « paradigme de fusion clairsemée » nécessite une révision de la reproductibilité.
Des recherches supplémentaires sont nécessaires pour vérifier si l’effet de réduction du temps d’entraînement de 20x est cohérent dans tous les cas.
👍