Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

TECP: Predicción conforme de entropía de tokens para LLM

Created by
  • Haebom

Autor

Beining Xu, Yongming Lu

Describir

Este artículo propone la Predicción Conformal de Entropía de Token (TECP), un novedoso marco que aprovecha la entropía de tokens para abordar el problema de cuantificación de la incertidumbre (CU) en la generación de lenguajes abiertos bajo restricciones de caja negra. TECP utiliza la entropía a nivel de token como medida de incertidumbre, sin logit ni referencia, y la integra en un pipeline independiente de Predicción Conformal (CP) para generar un conjunto de predicciones con garantías formales de cobertura. A diferencia de los métodos existentes que se basan en heurísticas de consistencia semántica o características de caja blanca, TECP estima directamente la incertidumbre epistémica a partir de la estructura de entropía de tokens de los productos muestreados y calibra los umbrales de incertidumbre mediante cuantiles de CP, lo que garantiza un control de errores verificable. Evaluaciones experimentales en seis modelos de lenguaje a gran escala y dos benchmarks (CoQA y TriviaQA) demuestran que TECP logra consistentemente una cobertura fiable y conjuntos de predicciones compactos, superando a los métodos previos de CU basados ​​en autoconsistencia. Este estudio proporciona una solución eficaz y basada en principios para la generación fiable en el entorno LLM de caja negra.

Takeaways, Limitations

Takeaways:
Un nuevo enfoque para la cuantificación de la incertidumbre en LLM de caja negra.
Medición de incertidumbre eficiente y basada en principios utilizando entropía de tokens sin logit ni referencia.
Control de errores verificable y garantía de cobertura confiable mediante predicción de referencia.
Muestra un mejor rendimiento que los métodos existentes basados ​​en la autoconsistencia.
Limitations:
Se necesita más investigación sobre el rendimiento de generalización del método presentado en este artículo.
Tal vez se necesiten realizar experimentos adicionales con diferentes tipos de LLM y puntos de referencia.
Es necesario un análisis comparativo con otras medidas de incertidumbre además de la entropía del token.
👍