Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

TokUR: Estimación de la incertidumbre a nivel de token para el razonamiento de modelos de lenguaje extensos

Created by
  • Haebom

Autor

Tunyu Zhang, Haizhou Shi, Yibin Wang, Hengyi Wang, Xiaoxiao He, Zhuowei Li, Haoxian Chen, Ligong Han, Kai Xu, Huan Zhang, Dimitris Metaxas, Hao Wang

Describir

Este artículo propone TokUR, un marco de estimación de incertidumbre a nivel de token, para abordar la inconsistencia en las capacidades de inferencia matemática de los modelos de lenguaje a gran escala (LLM). TokUR aplica perturbaciones de peso aleatorio de baja dimensión a la decodificación de LLM para generar una distribución predictiva, que posteriormente se utiliza para estimar la incertidumbre a nivel de token. La incertidumbre a nivel de token estimada se agrega para reflejar la incertidumbre semántica de la secuencia generada, evaluando así la precisión de la respuesta y la robustez del modelo. Los resultados experimentales, utilizando conjuntos de datos de inferencia matemática de diversa dificultad, demuestran que el método propuesto supera a los métodos existentes de estimación de incertidumbre y que la incertidumbre puede utilizarse para mejorar el rendimiento de la inferencia del modelo mediante algoritmos de multigeneración y filtrado de partículas.

Takeaways, Limitations

Takeaways:
Se presenta un nuevo método para estimar con precisión la incertidumbre a nivel de token en el proceso de inferencia LLM.
Demostramos que la estimación de la incertidumbre puede mejorar la precisión y la solidez de las respuestas LLM.
Presentamos la posibilidad de mejorar el rendimiento de inferencia de LLM mediante el uso de algoritmos de filtrado de partículas y multigeneración basados ​​en incertidumbre.
Proporciona métodos efectivos de evaluación y mejora para obtener respuestas confiables de los LLM.
Limitations:
La eficacia del método propuesto puede estar limitada a ciertos conjuntos de datos de inferencia matemática.
Se necesita más investigación sobre el rendimiento de generalización a otros tipos de problemas o tareas de razonamiento complejas.
Se necesitan más investigaciones sobre la configuración óptima de parámetros para perturbaciones de peso aleatorio de baja dimensión.
Se necesita una mayor verificación de la aplicabilidad y la eficiencia en aplicaciones del mundo real.
👍