Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Memorización en modelos de lenguaje grandes y precisos

Created by
  • Haebom

Autor

Danil Savine

Describir

Este estudio investiga los mecanismos y factores de memoria en modelos lingüísticos a gran escala (LLM) optimizados, centrándose en las preocupaciones sobre la privacidad en el ámbito sanitario. Utilizando el conjunto de datos PHEE de eventos de farmacovigilancia, examinamos cómo diversos aspectos del proceso de optimización afectan la tendencia del modelo a memorizar datos de entrenamiento. Detectamos datos memorizados mediante dos métodos principales: ataques de inferencia de pertenencia y una tarea de generación mediante prefijos de indicaciones. Analizamos la aplicación de diferentes matrices de ponderación en arquitecturas de transformadores, la relación entre perplejidad y memorización, y el efecto del aumento de rango en la optimización de la Adaptación de Bajo Rango (LoRA). Los hallazgos clave incluyen: (1) las matrices de valor y salida contribuyen más a la memorización que las matrices de consulta y clave; (2) una menor perplejidad en los modelos optimizados conlleva una mayor memorización; y (3) rangos LoRA más altos conllevan una mayor memorización, pero con rendimientos decrecientes. Estos hallazgos proporcionan información sobre el equilibrio entre el rendimiento del modelo y los riesgos para la privacidad en LLM optimizados. Los hallazgos de este estudio brindan orientación para desarrollar estrategias más efectivas y responsables en la aplicación de modelos lingüísticos a gran escala y al mismo tiempo gestionar las preocupaciones sobre la privacidad de los datos.

Takeaways, Limitations

Takeaways:
Al revelar que las matrices de peso específicas (valores, matrices de salida) en LLM ajustado contribuyen más a memorizar los datos de entrenamiento, contribuimos a establecer una estrategia de ajuste fino consciente de la privacidad.
Ayuda a equilibrar el rendimiento del modelo y la privacidad al identificar la correlación entre la vergüenza y la memorización.
Contribuye al desarrollo de una estrategia eficiente de ajuste de parámetros LoRA al presentar el cambio en los patrones de memorización según el aumento de la clase LoRA.
Centrándose en cuestiones de privacidad en el campo de la atención sanitaria, proporciona Takeaways importante para aplicaciones prácticas.
Limitations:
Limitaciones en la generalización utilizando solo un conjunto de datos PHEE.
Se necesitan más investigaciones para determinar si esta generalización se aplica a diversas arquitecturas LLM o técnicas de ajuste.
Dado que evaluamos la memorización utilizando solo dos métodos, ataques de inferencia de membresía y tareas de generación, se deberían considerar otras medidas de memorización.
En lugar de presentar estrategias de privacidad específicas, el enfoque se centra en aumentar la comprensión de los mecanismos de memorización.
👍