[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

UPCORE: Selección de núcleos que preservan la utilidad para un desaprendizaje equilibrado

Created by
  • Haebom

Autor

Vaidehi Patil, Elias Stengel-Eskin, Mohit Bansal

Describir

En este artículo, proponemos un marco de Selección de Coreset con Preservación de Utilidad (UPCORE) para abordar la degradación del rendimiento que se produce durante el proceso de desaprendizaje, que implica la eliminación u olvido de ciertos puntos de datos de un modelo preentrenado, especialmente en modelos de lenguaje a gran escala (LLM). UPCORE minimiza la degradación del rendimiento del modelo tras el desaprendizaje eliminando valores atípicos del conjunto de olvido correlacionados con la varianza de las representaciones del modelo. Mediante tres métodos estándar de desaprendizaje, UPCORE equilibra eficazmente los objetivos contrapuestos de la efectividad de la eliminación de datos y la preservación del rendimiento del modelo, y lo demostramos mediante una novedosa métrica de evaluación basada en AUC. UPCORE mejora el rendimiento al promover la transferencia positiva entre el coreset y los puntos de datos eliminados, y al reducir la transferencia negativa de estos últimos a otros puntos de datos.

Takeaways, Limitations

Takeaways:
Presentamos UPCORE, un marco de selección de datos eficaz que minimiza la degradación del rendimiento del modelo durante el desaprendizaje.
Al revelar la correlación entre la corrupción del modelo y la variación de la representación, proporcionamos información para mejorar las estrategias de desaprendizaje.
Presentamos una nueva métrica de evaluación basada en AUC que mide el equilibrio entre la efectividad de la eliminación de datos y el mantenimiento del rendimiento del modelo.
Garantizar la generalidad con una metodología aplicable a diversos métodos de desaprendizaje.
Limitations:
La eficacia del método propuesto se ha verificado experimentalmente, pero se necesitan experimentos adicionales en varias arquitecturas de modelos y conjuntos de datos.
Dado que el índice de evaluación basado en el AUC se propone recientemente en este artículo, se requiere una validación adicional en otros estudios.
Falta de análisis de la complejidad computacional y eficiencia de UPCORE.
Falta de consideración de los problemas de escalabilidad que pueden surgir cuando se aplican a LLM a gran escala del mundo real.
👍