Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

MachineLearningLM : Adaptation de l'apprentissage contextuel multi-coups via la préformation continue

Created by
  • Haebom

Auteur

Haoyu Dong, Pengkun Zhang, Mingzhe Lu, Yanzhen Shen, Guolin Ke

Contour

Cet article présente un nouveau cadre de pré-entraînement continu , MachineLearningLM , pour relever le défi de l'apprentissage de modèles de langage à grande échelle (LLM) à partir d'un grand nombre d'exemples contextuels dans des tâches d'apprentissage automatique (ML) traditionnelles . MachineLearningLM pré-entraîne les LLM à l'aide de tâches ML générées à partir de millions de modèles causaux structurés (SCM). Plus précisément, il utilise des forêts aléatoires pour intégrer des stratégies de prise de décision basées sur des arbres dans les LLM, améliorant ainsi la robustesse de la modélisation numérique. Il utilise également des invites efficaces en jetons pour augmenter le nombre d'exemples par fenêtre contextuelle d'un facteur 3 à 6 et améliore le débit jusqu'à 50 fois grâce à l'inférence par lots. Malgré sa petite configuration basée sur Qwen-2.5-7B-Instruct, il surpasse les modèles de base LLM robustes existants d'une moyenne de 15 % sur la classification de données tabulaires hors distribution dans divers domaines (finance, physique, biologie et médecine), démontrant une augmentation monotone de la précision à mesure que le nombre d'exemples contextuels augmente. De plus, il atteint une performance de 75,4% sur MMLU, maintenant une compétence conversationnelle générale.

Takeaways, Limitations

Takeaways:
Présentation d'un nouveau cadre qui améliore considérablement les capacités d'apprentissage dans le contexte du LLM.
Améliorer la robustesse de la modélisation numérique.
Apprentissage et inférence efficaces grâce à des invites efficaces en termes de jetons.
Atteint des performances supérieures par rapport aux modèles existants dans divers domaines.
Preuve claire de l’amélioration des performances à mesure que le nombre d’exemples dans un contexte augmente.
Maintenir des compétences conversationnelles générales.
Limitations:
Actuellement, cette étude se limite à un LLM spécifique (Qwen-2.5-7B-Instruct) et à une configuration LoRA. Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité à d'autres LLM et méthodologies.
Manque d’analyse sur l’impact du type et de la qualité du SCM utilisé sur la performance finale.
Bien qu’il s’agisse de résultats expérimentaux utilisant un ensemble de données à grande échelle, une évaluation plus approfondie des performances dans un environnement d’application réel est nécessaire.
👍