En implementaciones de aprendizaje automático en el mundo real, los modelos deben actualizarse, construirse y descartarse selectivamente según sea necesario. Sin embargo, los enfoques existentes de fusión de modelos y aprendizaje continuo a menudo sufren interferencias en las tareas, olvido catastrófico o falta de reversibilidad. En este artículo, proponemos la Fusión de Delta Modular con Restricciones Ortogonales (MDM-OC), un novedoso marco que permite la construcción escalable, sin interferencias y reversible de modelos optimizados. Cada modelo específico de tarea se codifica como un delta a partir de una base compartida y se proyecta en un subespacio ortogonal para eliminar conflictos. Estos deltas proyectados se fusionan posteriormente mediante optimización basada en gradientes para formar un modelo unificado que mantiene el rendimiento en todas las tareas. Este enfoque facilita la integración continua de nuevos modelos, la separación estructural para el cumplimiento de regulaciones como los requisitos del RGPD y la estabilidad del modelo mediante la fusión de pesos resilientes y la regeneración sintética. Experimentos exhaustivos con puntos de referencia de visión y procesamiento del lenguaje natural demuestran que MDM-OC supera los estándares previos en precisión, transferibilidad y fidelidad de separación, a la vez que mantiene un uso eficiente de la memoria y una gestión computacional eficiente. Este marco proporciona una solución sólida para el diseño de sistemas de IA modulares y compatibles.