Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Les LLM sont des raisonneurs monothread : démystifier le mécanisme de fonctionnement de la pensée douce

Created by
  • Haebom

Auteur

Chunhung Wu, Jinliang Lu, Zixuan Ren, Gangqiang Hu, Zhi Wu, Dai Dai, Hua Wu

Contour

Cet article étudie les capacités de « pensée douce » des modèles de langage à grande échelle (MLL) à l'aide de diverses techniques d'exploration. La pensée douce vise à générer des jetons doux pour faciliter l'inférence dans un espace conceptuel continu. Contrairement aux idées reçues, nous constatons que les LLM s'appuient principalement sur les composantes les plus influentes des entrées douces lors du décodage ultérieur, ce qui entrave l'exploration de divers chemins d'inférence. Pour surmonter cette limitation, nous introduisons de l'aléatoire grâce à des stratégies d'échantillonnage telles que le rééchantillonnage de Dirichlet et la technique de Gumbel-Softmax, visant à libérer le potentiel de la pensée douce. Les résultats expérimentaux montrent que la technique de Gumbel-Softmax surpasse la technique de Gumbel-Softmax sur huit tests d'inférence.

Takeaways, Limitations

Takeaways:
Fournit une compréhension approfondie des compétences de réflexion douce dans le LLM.
Identifier le Limitations (chemin d’exploration limité) de la méthode de pensée douce existante.
Suggérant la possibilité d’améliorer les performances de la pensée douce en introduisant du hasard.
Vérification de l'efficacité de la technique Gumbel-Softmax.
Limitations:
Utilisation de repères limités (8).
Des recherches supplémentaires sur d’autres stratégies d’échantillonnage sont nécessaires.
Une vérification de généralisabilité pour diverses architectures LLM est nécessaire.
👍