Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Ancrages de pensée : quelles étapes du raisonnement LLM sont importantes ?

Created by
  • Haebom

Auteur

Paul C. Bogdan, Uzay Macar, Neel Nanda, Arthur Conmy

Contour

Cet article se concentre sur l'analyse au niveau des phrases afin d'aborder la question de l'interprétabilité du raisonnement long dans les modèles linguistiques à grande échelle (MLH). Pour comprendre les processus de raisonnement des MLH, nous proposons trois méthodes d'attribution complémentaires : premièrement, une méthode de la boîte noire qui mesure l'importance contrefactuelle de chaque phrase ; deuxièmement, une méthode de la boîte blanche qui agrège les schémas d'attention entre les phrases afin d'identifier les têtes d'attention « diffusées » et « réceptrices » ; et troisièmement, une méthode d'attribution causale qui supprime l'attention sur une phrase et mesure son influence sur les autres phrases. Ces trois méthodes révèlent l'existence d'« ancres de pensée » qui exercent une influence excessive sur le processus de raisonnement, démontrant que ces ancres sont principalement des phrases incitant à la réflexion ou réflexives. Enfin, nous fournissons un outil open source permettant de visualiser les ancres de pensée et présentons une étude de cas démontrant la cohérence des résultats obtenus dans des processus d'inférence à plusieurs étapes.

Takeaways, Limitations

Takeaways:
Une nouvelle méthodologie est présentée pour comprendre efficacement le processus de raisonnement du LLM grâce à une analyse au niveau des phrases.
Présentation du concept d'« ancres de pensée » qui jouent un rôle important dans le processus de raisonnement du LLM et élucidation de leurs caractéristiques.
Améliorer la fiabilité des résultats d’analyse grâce à trois méthodes d’attribution complémentaires.
Améliorer l’accessibilité et assurer la reproductibilité des résultats de recherche en fournissant des outils open source.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité de la méthodologie présentée.
Une vérification de l'applicabilité pour diverses architectures LLM et tâches d'inférence est requise.
Des discussions plus approfondies sont nécessaires sur la définition et la mesure du concept d’« ancre de pensée ».
👍