Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Fusión de LED: mitigación de conflictos de seguridad y utilidad en la fusión de modelos con ubicación-elección-disjunta

Created by
  • Haebom

Autor

Qianli Ma, Dongrui Liu, Qian Chen, Linfeng Zhang, Jing Shao

Describir

Este artículo se centra en la fusión de modelos, una solución sin aprendizaje que integra múltiples modelos específicos de tarea para abordar la importante sobrecarga computacional y de datos asociada al ajuste fino de modelos de lenguaje a gran escala (LLM) preentrenados para tareas especializadas. Para abordar el equilibrio entre seguridad y utilidad (donde una mayor generalidad compromete las medidas de seguridad) de los métodos existentes de fusión de modelos, identificamos dos causas fundamentales: la identificación errónea de neuronas debido a la selección simple basada en el tamaño de los parámetros y la interferencia neuronal entre tareas durante la fusión. Para abordar estos problemas, proponemos la fusión LED, un marco de tres pasos que identifica neuronas específicas de tarea mediante propiedades basadas en gradientes, selecciona dinámicamente neuronas importantes mediante la fusión de importancia multimodelo y desacopla las actualizaciones conflictivas mediante el aislamiento de parámetros. Experimentos exhaustivos con Llama-3-8B, Mistral-7B y Llama2-13B demuestran que la combinación de LED reduce eficazmente las tasas de respuesta dañina (reducción del 31,4 % en HarmBench para Llama-3-8B-Instruct), manteniendo al mismo tiempo un rendimiento de usabilidad del 95 % (precisión del 52,39 % en GSM8K). La combinación de LED resuelve el dilema entre seguridad y utilidad y proporciona un paradigma ligero y sin aprendizaje para construir LLM robustos y multitarea. El código está disponible en GitHub.

Takeaways, Limitations

Takeaways:
Identificar claramente los problemas de seguridad y usabilidad de los métodos de fusión de modelos existentes y proponer soluciones.
Construya de manera eficiente LLM multitarea sin entrenamiento mediante LED-Merging.
Lograr dos objetivos simultáneamente: reducir las tasas de respuestas adversas y mantener el rendimiento de usabilidad.
Presentamos una técnica de fusión de modelos liviana y sin aprendizaje para reducir los costos computacionales.
Limitations:
Es necesaria una verificación adicional del rendimiento de generalización del método propuesto.
Se necesita una evaluación de escalabilidad para diversas arquitecturas y cargas de trabajo LLM.
Puede haber limitaciones a la hora de determinar con precisión la importancia de una neurona para una tarea particular.
Hay margen de optimización y mejora en los métodos de aislamiento de parámetros.
👍