Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Una mirada más cercana al desaprendizaje automático para modelos de lenguaje grandes

Created by
  • Haebom

Autor

Xiaojian Yuan, Tianyu Pang, Chao Du, Kejiang Chen, Weiming Zhang, Min Lin

Describir

Este artículo analiza varios desafíos asociados con el desaprendizaje automático de modelos de lenguaje a gran escala (LLM) y propone un enfoque mejorado. Dado que los LLM pueden plantear problemas legales y de privacidad debido a su capacidad para memorizar contenido sensible o protegido por derechos de autor, el desaprendizaje automático, que elimina contenido específico manteniendo el rendimiento general, está ganando atención. Para abordar los problemas de evaluación inadecuados del desaprendizaje automático actual, proponemos tres métricas adicionales: diversidad de tokens, semántica de oraciones y precisión fáctica. Además, clasificamos los métodos de desaprendizaje en métodos no dirigidos y dirigidos, y analizamos sus respectivos desafíos (p. ej., el comportamiento impredecible del desaprendizaje no dirigido y la regularización insuficiente del desaprendizaje dirigido). Para mitigar estos desafíos, proponemos utilizar el objetivo de maximización de entropía (ME) para el desaprendizaje no dirigido y la pérdida de preservación de respuestas (PA) para el desaprendizaje dirigido como regularización. Los resultados experimentales para tres escenarios (desaprendizaje ficticio, desaprendizaje continuo y desaprendizaje real) demuestran la eficacia del enfoque propuesto.

Takeaways, Limitations

Takeaways:
Presentación de nuevas métricas (diversidad de tokens, significado de oraciones y precisión fáctica) para evaluar el aprendizaje automático en LLM.
Prueba de la eficacia del objetivo de maximización de la entropía (ME) para el desaprendizaje no dirigido y de la regularización de la pérdida de preservación de la respuesta (AP) para el desaprendizaje dirigido.
Validación experimental extensa utilizando escenarios de desaprendizaje ficticios, persistentes y del mundo real.
Métodos prácticos para eliminar información confidencial del LLM
Limitations:
Se necesita más investigación sobre el rendimiento de generalización del método propuesto.
Se necesitan más experimentos en diversas arquitecturas y conjuntos de datos LLM.
Es necesaria una evaluación del desempeño en escenarios complejos del mundo real.
Se necesitan más investigaciones para abordar los posibles efectos secundarios no deseados que pueden surgir durante el desaprendizaje mecánico.
👍