[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Aprendiendo lo que importa: Selección probabilística de tareas mediante información mutua para el ajuste fino del modelo

Created by
  • Haebom

Autor

Prateek Chanda, Saral Sureka, Parth Pratim Chatterjee, Krishnateja Killamsetty, Nikhil Shivakumar Nayak, Ganesh Ramakrishnan

Describir

En este artículo, demostramos que el rendimiento del ajuste fino de los modelos de lenguaje a gran escala (LLM) depende en gran medida de la composición de la mezcla de datos de entrenamiento, pero la selección de la proporción óptima de la mezcla de datos es un proceso manual y heurístico. Por lo tanto, presentamos TASKPGM, un marco sistemático y escalable que selecciona proporciones de tareas continuas minimizando una función de energía sobre un campo aleatorio de Markov (MRF). TASKPGM modela las relaciones entre tareas utilizando diferencias de comportamiento como la divergencia de Jensen-Shannon y la información mutua puntual calculada a partir de la distribución predictiva de modelos de ajuste fino de una sola tarea. Proporciona soluciones de forma cerrada bajo restricciones de grupo y garantiza un equilibrio de representatividad y diversidad entre las tareas. Muestra mejoras consistentes en el rendimiento empírico en Llama 2 y Mistral, así como en conjuntos de evaluación como MMLU y BIGBench, lo que proporciona información interpretable sobre la influencia de la tarea y la composición de la mezcla.

Takeaways, Limitations

Takeaways:
Presentamos TASKPGM, un marco de optimización de combinación de datos sistemático y escalable para el ajuste fino de LLM
Modelar las relaciones de tareas utilizando la distribución predictiva de un modelo de ajuste fino de una sola tarea, logrando un equilibrio entre representatividad y diversidad.
Demuestra mejoras de rendimiento en conjuntos de evaluación como MMLU y BIGBench en Llama 2 y Mistral
Proporciona información interpretable sobre la influencia del trabajo y la composición mixta.
Limitations:
Falta de discusión sobre los recursos computacionales necesarios para la aplicación práctica de TASKPGM.
Se necesita más investigación sobre la generalización a diferentes arquitecturas y conjuntos de datos LLM.
Es necesario explorar otros tipos de métodos de modelado de relaciones de trabajo más allá de las diferencias de comportamiento propuestas.
👍