Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

CoAT : Cadre de chaîne de pensées associées pour améliorer le raisonnement sur les grands modèles de langage

Created by
  • Haebom

Auteur

Jianfeng Pan, Senyou Deng, Shaomang Huang

Contour

Cet article propose le cadre de la chaîne de pensées associées (CoAT), qui remplace l'approche « fast thinking » des LLM traditionnels par une approche « slow thinking » plus proche des processus de pensée humaine. CoAT élargit considérablement l'espace d'exploration des LLM en combinant l'algorithme de recherche arborescente de Monte-Carlo (MCTS) avec un nouveau mécanisme d'intégration d'informations clés appelé « mémoire associative ». S'appuyant sur les capacités d'exploration structurelle de MCTS et les capacités d'apprentissage adaptatif de la mémoire associative, CoAT explore de multiples chemins d'inférence et met à jour dynamiquement la base de connaissances en temps réel. Cela lui permet de revoir et d'améliorer les inférences précédentes et d'intégrer de manière adaptative l'évolution des informations pour produire des résultats finaux précis et complets. Nous obtenons des gains de performance de plus de 10 % (jeux de données open source) et de plus de 15 % (jeux de données CRB) sur des jeux de données d'inférence multi-étapes open source tels que HotpotQA et MuSiQue, ainsi que sur notre propre jeu de données CRB.

Takeaways, Limitations

Takeaways:
Un nouveau cadre de « pensée lente » qui surmonte les limites des LLM existants.
Amélioration des performances grâce à une combinaison efficace de mécanismes MCTS et de mémoire associative.
Fournit diverses fonctions d'exploration de chemin d'inférence et de mise à jour de la base de connaissances en temps réel.
Validation de la praticabilité par l'amélioration des performances sur divers ensembles de données
Limitations:
Absence de description spécifique de l'ensemble de données CRB présenté.
Des explications supplémentaires sont nécessaires concernant le fonctionnement spécifique et les limites des mécanismes de mémoire associative.
Manque d'analyse comparative avec d'autres modèles LLM de pointe
Manque d'analyse sur l'évolutivité et les coûts de calcul
👍