Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Analyse comparative de la construction de graphes par de grands modèles de langage pour l'inférence pilotée par la cohérence

Created by
  • Haebom

Auteur

Steve Huntsman, Jewell Thomas

Contour

Cet article présente un algorithme permettant de générer des propositions représentant objectivement des graphes supportant le raisonnement basé sur la cohérence. De plus, nous évaluons la capacité des modèles de langage à grande échelle (MLL) à reconstruire des graphes de cohérence à partir de propositions exprimées en langage naturel (simplement transformées). Nous démontrons des résultats prometteurs en utilisant une seule invite sur un LLM optimisé pour l'inférence. Par exemple, o1/3/4-mini réalise une reconstruction parfaite en deux fois moins de temps pour les graphes clairsemés. Le raisonnement basé sur la cohérence pour l'évaluation de la cohérence par les LLM pourrait améliorer les capacités cognitives des machines.

Takeaways, Limitations

Takeaways:
Nous présentons un nouvel algorithme permettant de générer des graphiques prenant en charge l’inférence basée sur la cohérence.
Résultats prometteurs démontrant le potentiel de la reconstruction de graphes de cohérence à l'aide de LLM
Suggérant la possibilité d'améliorer les capacités cognitives des machines grâce à l'évaluation de la cohérence du LLM.
Limitations:
L’évaluation des performances de l’algorithme proposé et du LLM est limitée aux graphes clairsemés.
Des recherches supplémentaires sont nécessaires sur la généralisabilité à différents types de graphiques et de propositions.
Limitations potentielles des performances du LLM en raison de l'utilisation d'une seule invite
Une analyse plus approfondie de l’évaluation de la cohérence des LLM est nécessaire.
👍