Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

De l'exploration implicite au raisonnement structuré : tirer parti des lignes directrices et du raffinement pour les LLM

Created by
  • Haebom

Auteur

Jiaxiang Chen, Zhuo Wang, Mingxi Zou, Zhucong Li, Zhijian Zhou, Song Wang, Zenglin Xu

Contour

Cet article propose un cadre permettant la transition de la recherche implicite traditionnelle vers l'inférence structurée afin d'améliorer le processus d'inférence des modèles linguistiques à grande échelle (MLH). La recherche implicite traditionnelle souffre de chemins d'inférence instables, d'un manque de correction d'erreurs et d'un apprentissage limité de l'expérience passée. Cette étude analyse les signaux de réflexion des chemins d'inférence réussis et échoués afin d'extraire des modèles d'inférence structurés. Nous appliquons ensuite un processus d'affinement pour suivre ces directives étape par étape pendant le processus d'inférence, en corrigeant les erreurs à chaque étape et en stabilisant le processus. Les résultats expérimentaux sur BBH et quatre tests de performance supplémentaires (GSM8K, MATH-500, MBPP et HumanEval) démontrent que la méthode proposée surpasse systématiquement les puissants modèles de base dans diverses tâches d'inférence. L'inférence structurée par exécution et raffinement par étapes améliore la stabilité et les performances de généralisation, tandis que les directives sont facilement transférables entre domaines et soutiennent avec souplesse la collaboration inter-modèles, atteignant des performances comparables ou supérieures à celles du réglage fin basé sur l'apprentissage supervisé en termes d'efficacité et d'évolutivité.

Takeaways, Limitations

Takeaways:
Contribue à améliorer la stabilité d'inférence et les performances de généralisation des modèles linguistiques à grande échelle.
Suggérer des possibilités d'apprentissage et d'inférence efficaces grâce à des modèles d'inférence structurels
Correction des erreurs et sécurisation d’un chemin d’inférence stable grâce à des processus d’exécution et de raffinement étape par étape.
ÉVolutivité accrue grâce au transfert de directives inter-domaines et à la prise en charge de la collaboration inter-modèles.
Présentation d'une alternative efficace et évolutive au réglage fin basé sur l'apprentissage supervisé.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer l’applicabilité et les performances de généralisation du cadre proposé.
Des recherches supplémentaires sont nécessaires pour développer et appliquer des lignes directrices générales pour différents types de tâches d’inférence.
Une évaluation plus approfondie de l’efficacité et de la stabilité des processus d’inférence complexes en plusieurs étapes est nécessaire.
👍