Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Ley de entropía-memorización: evaluación de la dificultad de memorización de datos en LLM

Created by
  • Haebom

Autor

Yizhan Huang, Zhe Yang, Meifang Chen, Jianping Zhang, Michael R. Lyu

Describir

Este artículo aborda una pregunta fundamental sobre el fenómeno de la memorización de datos de entrenamiento en modelos lingüísticos a gran escala (LLM): ¿cómo podemos caracterizar la dificultad de memorizar datos de entrenamiento? Mediante experimentos con la familia OLMo de modelos abiertos, proponemos la ley de entropía-memorización, que sugiere que la entropía de los datos está linealmente correlacionada con las puntuaciones de memorización. Además, mediante un estudio de caso de memorización de cadenas altamente aleatorias (gibberish), observamos que estas cadenas, a pesar de su aparente aleatoriedad, presentan una entropía empírica inesperadamente baja en comparación con el extenso corpus de entrenamiento. Adoptando la misma estrategia empleada para descubrir la ley de entropía-memorización, derivamos la Inferencia de Conjuntos de Datos (ID), un enfoque simple pero eficaz para distinguir entre datos de entrenamiento y de prueba.

Takeaways, Limitations

Takeaways:
Presentamos la importancia de la entropía de datos para comprender el fenómeno de memorización de datos de entrenamiento en LLM.
Demostramos la posibilidad de predecir la dificultad de memorización de los datos de entrenamiento a través de la ley de entropía-memorización.
Presentamos una nueva técnica llamada inferencia de conjuntos de datos (DI) que proporciona una manera de distinguir entre datos de entrenamiento y de prueba.
Limitations:
Dado que los resultados se basan en experimentos en una familia de modelos específica denominada OLMo, se necesita más investigación para determinar si pueden generalizarse a otros LLM.
Es necesario un análisis más profundo de la fuerza y ​​el alcance de la correlación lineal de la ley de memorización de entropía.
Se necesita una evaluación más amplia del rendimiento y las limitaciones de la inferencia de conjuntos de datos (ID).
👍