Dans les déploiements d'apprentissage automatique en situation réelle, les modèles doivent être continuellement mis à jour, construits et supprimés de manière sélective selon les besoins. Cependant, les approches existantes de fusion de modèles et d'apprentissage continu souffrent souvent d'interférences entre les tâches, d'oublis catastrophiques ou d'un manque de réversibilité. Dans cet article, nous proposons la fusion modulaire de deltas à contraintes orthogonales (MDM-OC), un nouveau framework qui permet la construction évolutive, sans interférence et réversible de modèles affinés. Chaque modèle spécifique à une tâche est codé sous forme de delta à partir d'une base commune et projeté dans un sous-espace orthogonal afin d'éliminer les conflits. Ces deltas projetés sont ensuite fusionnés via une optimisation par gradient pour former un modèle unifié qui maintient les performances sur toutes les tâches. Cette approche prend en charge l'intégration continue de nouveaux modèles, la séparation structurelle pour la conformité aux réglementations telles que le RGPD, et la stabilité des modèles grâce à la fusion de poids résiliente et à la régénération synthétique. Des expériences approfondies sur des benchmarks de vision et de traitement du langage naturel démontrent que MDM-OC surpasse les références précédentes en termes de précision, de transférabilité et de fidélité de séparation, tout en restant économe en mémoire et facile à gérer. Ce cadre fournit une solution fondée sur des principes pour la conception de systèmes d’IA modulaires et conformes.