Cette page résume et organise les publications en intelligence artificielle du monde entier. Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif. Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.
Cet article présente une nouvelle méthodologie visant à améliorer les performances d'inférence complexe des modèles de langage à grande échelle (MLH). Nous constatons que les composantes des trajectoires de raisonnement étendues générées par les techniques conventionnelles de mise à l'échelle en temps de test ne contribuent pas toutes à améliorer les performances d'inférence. Nous développons un cadre « 5+2 » pour identifier et supprimer systématiquement les sous-trajectoires sous-optimales. Cet algorithme réduit les sous-trajectoires sous-optimales de 25,9 %. Lors d'expériences de réglage fin sur le modèle Qwen2.5-Math-7B, l'algorithme atteint une précision supérieure (58,92 % contre 58,06 %) à celle de l'ensemble de données complet, surpassant ainsi les jeux de données open source. De plus, nous démontrons des améliorations de performances sous diverses contraintes de jetons, même dans des environnements aux ressources limitées.
Takeaways, Limitations
•
Takeaways:
◦
Nous montrons que l’amélioration des performances peut être obtenue en éliminant les inférences partielles inefficaces pendant le processus d’inférence LLM.
◦
Présentation d’une méthode d’apprentissage efficace qui permet d’obtenir d’excellentes performances même avec des données et des ressources limitées.
◦
Le cadre « 5+2 » est un outil utile pour analyser et améliorer le processus d’inférence.
•
Limitations:
◦
Les cinq critères du cadre « 5+2 » reposent sur des évaluations humaines subjectives. Il est donc nécessaire d'élaborer des critères d'évaluation objectifs.
◦
Seuls les résultats expérimentaux pour un modèle spécifique (Qwen2.5-Math-7B) et un ensemble de données sont présentés, ce qui nécessite des recherches supplémentaires sur la généralisabilité.
◦
Une validation supplémentaire des performances de généralisation pour différents types de problèmes d’inférence est nécessaire.