Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Une pratique de post-formation sur Llama-3 70B avec une sélection optimale du ratio de mélange de langues supplémentaires

Created by
  • Haebom

Auteur

Ningyuan Xi, Yetao Wu, Kun Fan, Teng Chen, Qingqing Gu, Luo Ji

Contour

Cet article explore comment les modèles linguistiques à grande échelle (LLM) peuvent acquérir de nouvelles compétences linguistiques et s'adapter à de nouveaux domaines grâce au pré-entraînement continu (CPT). Plus précisément, nous analysons systématiquement l'impact d'une sélection optimale d'hyperparamètres clés, tels que le ratio de mélange de langues supplémentaires ou de corpus de domaines, sur les performances du modèle. Nous utilisons le CPT pour améliorer la maîtrise du chinois à l'aide des modèles Llama-3 8B et 70B, et étudions la corrélation optimale entre le ratio de mélange de langues supplémentaires (ALMR) et le taux d'apprentissage (LR) dans le modèle 8B afin de définir des paramètres expérimentaux optimaux. Grâce à une sélection rigoureuse et à un réglage précis des hyperparamètres, nous améliorons les performances du modèle non seulement sur des benchmarks liés au chinois, mais aussi dans des domaines spécifiques tels que les mathématiques, le codage et l'intelligence émotionnelle. Nous déployons le modèle 70B final dans un système de chat réel, obtenant des performances satisfaisantes.

Takeaways, Limitations

Takeaways:
Nous présentons une configuration expérimentale pour améliorer l'efficacité du CPT en analysant la corrélation optimale entre le rapport de mélange de langues supplémentaires (ALMR) et le taux d'apprentissage (LR).
L'amélioration de la maîtrise de la langue chinoise et des performances dans divers domaines, notamment les mathématiques, le codage et l'intelligence émotionnelle, a été vérifiée expérimentalement grâce au modèle Llama-3.
Déploiement réussi du modèle 70B dans un véritable système de chat pour démontrer sa praticité.
Limitations:
L’étude a été limitée au modèle Llama-3, ce qui peut limiter la généralisabilité à d’autres modèles LLM.
Des recherches supplémentaires sont nécessaires pour déterminer si la corrélation optimale entre ALMR et LR dérivée du modèle 8B peut être également appliquée à des modèles d’autres tailles, comme le modèle 70B.
Manque de mesures de performance spécifiques et d’analyse des résultats réels du déploiement du système de chat.
👍