Cette page résume et organise les publications en intelligence artificielle du monde entier. Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif. Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.
Cet article propose TokUR, un cadre d'estimation de l'incertitude au niveau du jeton, pour remédier à l'incohérence des capacités d'inférence mathématique des modèles de langage à grande échelle (MLL). TokUR applique des perturbations de poids aléatoires de faible dimension au décodage des LLM afin de générer une distribution prédictive, qui est ensuite utilisée pour estimer l'incertitude au niveau du jeton. L'incertitude estimée au niveau du jeton est agrégée pour refléter l'incertitude sémantique de la séquence générée, évaluant ainsi la précision de la réponse et la robustesse du modèle. Les résultats expérimentaux utilisant des jeux de données d'inférence mathématique de difficulté variable démontrent que la méthode proposée surpasse les méthodes d'estimation de l'incertitude existantes et que l'incertitude peut être utilisée pour améliorer les performances d'inférence du modèle grâce à des algorithmes de multigénération et de filtrage particulaire.
Takeaways, Limitations
•
Takeaways:
◦
Une nouvelle méthode permettant d’estimer avec précision l’incertitude au niveau du jeton dans le processus d’inférence LLM est présentée.
◦
Nous démontrons que l’estimation de l’incertitude peut améliorer la précision et la robustesse des réponses LLM.
◦
Nous présentons la possibilité d'améliorer les performances d'inférence de LLM en utilisant des algorithmes de multigénération et de filtrage de particules basés sur l'incertitude.
◦
Fournit des méthodes d’évaluation et d’amélioration efficaces pour obtenir des réponses fiables de la part des LLM.
•
Limitations:
◦
L’efficacité de la méthode proposée peut être limitée à certains ensembles de données d’inférence mathématique.
◦
Des recherches supplémentaires sont nécessaires sur les performances de généralisation à d’autres types de problèmes ou de tâches de raisonnement complexes.
◦
Des recherches supplémentaires sont nécessaires sur les paramètres optimaux pour les perturbations de poids aléatoires de faible dimension.
◦
Des vérifications supplémentaires de l’applicabilité et de l’efficacité dans les applications du monde réel sont nécessaires.