Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

TECP : prédiction conforme à l'entropie des jetons pour les LLM

Created by
  • Haebom

Auteur

Beining Xu, Yongming Lu

Contour

Cet article propose la prédiction conforme à entropie de jeton (TECP), un nouveau cadre exploitant l'entropie de jeton pour résoudre le problème de quantification de l'incertitude (UQ) pour la génération de langage ouvert sous contraintes de boîte noire. TECP utilise l'entropie au niveau du jeton comme mesure d'incertitude, sans logit ni référence, et l'intègre dans un pipeline de prédiction conforme (CP) distinct pour générer un ensemble de prédictions avec des garanties de couverture formelles. Contrairement aux méthodes existantes qui s'appuient sur des heuristiques de cohérence sémantique ou des caractéristiques de boîte blanche, TECP estime directement l'incertitude épistémique à partir de la structure d'entropie de jeton des produits échantillonnés et calibre les seuils d'incertitude via des quantiles de CP, garantissant ainsi un contrôle d'erreur vérifiable. Des évaluations expérimentales sur six modèles de langage à grande échelle et deux benchmarks (CoQA et TriviaQA) démontrent que TECP atteint systématiquement une couverture fiable et des ensembles de prédiction compacts, surpassant les précédentes méthodes UQ basées sur l'auto-cohérence. Cette étude fournit une solution efficace et fondée sur des principes pour une génération fiable dans le cadre de la LLM de boîte noire.

Takeaways, Limitations

Takeaways:
Une nouvelle approche de la quantification de l'incertitude dans le LLM en boîte noire.
Mesure d'incertitude efficace et fondée sur des principes utilisant l'entropie symbolique sans logit ni référence.
Contrôle d'erreur vérifiable et assurance de couverture fiable grâce à la prédiction de référence.
Il présente de meilleures performances que les méthodes existantes basées sur l’auto-cohérence.
Limitations:
Des recherches supplémentaires sont nécessaires sur les performances de généralisation de la méthode présentée dans cet article.
Des expériences supplémentaires avec différents types de LLM et de benchmarks peuvent être nécessaires.
Une analyse comparative avec d’autres mesures d’incertitude en plus de l’entropie symbolique est nécessaire.
👍