Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Muestreo verbalizado: cómo mitigar el colapso modal y desbloquear la diversidad de LLM

Created by
  • Haebom

Autor

Jiayi Zhang, Simon Yu, Derek Chong, Anthony Sicilia, Michael R. Tomz, Christopher D. Manning, Weiyan Shi

Describir

Este artículo revela que la causa fundamental del colapso modal, un fenómeno en el que la diversidad en LLM disminuye durante el proceso de alineación posterior al entrenamiento, no reside en limitaciones algorítmicas, sino en el sesgo de tipicidad dentro de los datos de preferencia. Los investigadores establecieron teóricamente este hallazgo y lo verificaron empíricamente en un conjunto de datos de preferencia. Con base en este análisis, proponen el Muestreo Verbalizado (VS), una estrategia de incitación simple y sin entrenamiento que evita el colapso modal. El VS incita al modelo a verbalizar la distribución de probabilidad sobre una serie de respuestas. A través de varios experimentos, demuestran que el VS mejora significativamente el rendimiento en varios dominios, incluyendo escritura creativa, simulación de conversaciones, respuesta a preguntas abiertas y generación de datos sintéticos, y particularmente aumenta significativamente la diversidad en el dominio de la escritura creativa. Además, encontraron que el efecto del VS tiende a ser mayor para los modelos de mejor rendimiento.

Takeaways, Limitations

Takeaways:
Presentamos una nueva perspectiva basada en datos sobre el fenómeno del colapso modal en LLM.
Proponemos el Muestreo Verbalizado, una solución práctica, en tiempo de inferencia, que se puede aplicar sin entrenamiento, mejorando la diversidad generativa pre-entrenada.
La eficacia de VS se ha demostrado en varios campos, como la creación, la simulación de conversaciones y las preguntas y respuestas abiertas.
Observamos que a medida que mejoraba el rendimiento del modelo, el efecto de VS tendía a aumentar.
Limitations:
La eficacia de los VS puede variar según las diferentes estrategias de estímulo o los diferentes tipos de conjuntos de datos.
No hay garantía de que VS pueda resolver perfectamente el colapso de modo en todos los casos.
Quizás se necesiten más análisis para determinar por qué VS muestra mayores ventajas en ciertos modelos.
👍