Este artículo se centra en la fusión de modelos, una solución sin aprendizaje que integra múltiples modelos específicos de tarea para abordar la importante sobrecarga computacional y de datos asociada al ajuste fino de modelos de lenguaje a gran escala (LLM) preentrenados para tareas especializadas. Para abordar el equilibrio entre seguridad y utilidad (donde una mayor generalidad compromete las medidas de seguridad) de los métodos existentes de fusión de modelos, identificamos dos causas fundamentales: la identificación errónea de neuronas debido a la selección simple basada en el tamaño de los parámetros y la interferencia neuronal entre tareas durante la fusión. Para abordar estos problemas, proponemos la fusión LED, un marco de tres pasos que identifica neuronas específicas de tarea mediante propiedades basadas en gradientes, selecciona dinámicamente neuronas importantes mediante la fusión de importancia multimodelo y desacopla las actualizaciones conflictivas mediante el aislamiento de parámetros. Experimentos exhaustivos con Llama-3-8B, Mistral-7B y Llama2-13B demuestran que la combinación de LED reduce eficazmente las tasas de respuesta dañina (reducción del 31,4 % en HarmBench para Llama-3-8B-Instruct), manteniendo al mismo tiempo un rendimiento de usabilidad del 95 % (precisión del 52,39 % en GSM8K). La combinación de LED resuelve el dilema entre seguridad y utilidad y proporciona un paradigma ligero y sin aprendizaje para construir LLM robustos y multitarea. El código está disponible en GitHub.