Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Bucles de entrenamiento recursivos en LLM: ¿Cómo las propiedades de los datos de entrenamiento modulan el cambio de distribución en los datos generados?

Created by
  • Haebom

Autor

Grgur Kova\v{c}, Jeremy Perez , Rémy Portelas, Peter Ford Dominey, Pierre-Yves Oudeyer

Describir

Este artículo estudia el fenómeno del colapso del modelo que se produce cuando los modelos lingüísticos a gran escala (LLM) se entrenan recursivamente con datos sintéticos. En particular, analizamos empíricamente el efecto de las características de los datos humanos en este colapso del modelo y demostramos que la diversidad léxica lo amplifica, mientras que la diversidad semántica y la calidad de los datos lo mitigan. Además, demostramos que el efecto del colapso del modelo varía según el dominio de Internet y que el sesgo político puede amplificarse o reducirse según las características de los datos humanos. Esto sugiere una nueva perspectiva: diferentes partes de Internet pueden experimentar distintos tipos de colapso del modelo.

Takeaways, Limitations

Takeaways:
Sugerimos que las características de los datos humanos (diversidad léxica, diversidad semántica y calidad de los datos) son factores importantes para predecir el grado de cambio distributivo que ocurre durante el proceso de entrenamiento recursivo de LLM.
Dado que el impacto de los cambios de distribución varía según los dominios de Internet, esto sugiere la necesidad de una estrategia de entrenamiento de modelos que tenga en cuenta las características del dominio.
Revelamos que las características de los datos humanos influyen en la amplificación o reducción de ciertos sesgos, como el sesgo político en LLM.
Presentamos un enfoque novedoso para resolver los problemas que surgen en el proceso de entrenamiento recursivo de LLM.
Limitations:
Dado que el análisis se centra en características de datos humanos específicos, es posible que no se haya considerado la influencia de otros factores importantes.
Es necesario revisar la generalización del conjunto de datos utilizado en el análisis.
Faltan metodologías específicas para mitigar los cambios distributivos.
👍