[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Sobre el efecto de la pérdida de ajuste de instrucciones en la generalización

Created by
  • Haebom

Autor

Anwoy Chatterjee, HSVNS Kowndinya Renduchintala, Sumit Bhatia, Tanmoy Chakraborty

Describir

Este artículo cuestiona si la función objetivo autorregresiva convencional (que calcula la pérdida solo para los tokens de respuesta) es óptima en el ajuste de instrucciones y propone un método novedoso, el Ajuste de Instrucciones Ponderado (WIT), que pondera los tokens de aviso y los tokens de respuesta de manera diferente. A través de experimentos extensos con cinco modelos de lenguaje de varios tamaños, tres conjuntos de datos de ajuste fino de diferentes tamaños y cinco puntos de referencia de evaluación diferentes, demostramos que la función de pérdida de ajuste de instrucciones convencional no proporciona un rendimiento óptimo ni robustez a los cambios de aviso de entrada. Descubrimos que asignar pesos bajos a los tokens de aviso y pesos medios a altos a los tokens de respuesta logra el mejor rendimiento en una variedad de entornos y proporciona un mejor punto de partida para el posterior entrenamiento de alineación de preferencias. Este estudio destaca la necesidad de replantear la función de pérdida de ajuste de instrucciones y proporciona información práctica para desarrollar modelos más robustos y generalizables. El código está disponible públicamente.

Takeaways, Limitations

Takeaways:
Revelamos que la función de pérdida del ajuste fino de la directiva existente no es óptima.
Sugerir la posibilidad de mejorar el rendimiento y la robustez ajustando los pesos de los tokens de solicitud y respuesta.
WIT proporciona un mejor punto de partida para la alineación de preferencias de entrenamiento y un rendimiento superior en una variedad de entornos.
Repensar las funciones de pérdida de ajuste directivo y brindar información útil para un mejor desarrollo del modelo.
Limitations:
Se necesitan más investigaciones para determinar si el esquema de ponderación propuesto es óptimo en todas las situaciones.
Ausencia de pautas generales para garantizar que una combinación particular de pesos sea óptima.
Se han realizado experimentos con una variedad de modelos y conjuntos de datos, pero no cubren todos los modelos y conjuntos de datos posibles.
👍