Dans cet article, nous proposons un nouvel algorithme d'adaptation de domaine (AD), SIDDA, basé sur la divergence de Sinkhorn, pour résoudre le problème du décalage des covariables, c'est-à-dire la dégradation des performances de généralisation des réseaux de neurones lorsque les distributions des données d'apprentissage et de test sont différentes mais que les distributions conditionnelles sont identiques. SIDDA permet un alignement de domaine efficace avec un réglage des hyperparamètres et un coût de calcul minimes. Nous démontrons l'efficacité de SIDDA sur des ensembles de données simulés et réels (par exemple, des formes simples, des chiffres manuscrits et des données d'observation astronomique) de complexités variées, et démontrons son efficacité pour améliorer la précision de la classification et l'étalonnage des modèles, notamment lorsqu'il est utilisé avec des réseaux de neurones équivariants (RNE). SIDDA permet d'améliorer jusqu'à environ 40 % la précision de la classification et d'améliorer significativement l'étalonnage des modèles (amélioration de plus de 10 fois des scores ECE et Brier). Il est compatible avec diverses architectures de réseaux de neurones et permet le développement de modèles généralisables dans les études multi-ensembles de données. De plus, nous étudions l'effet de l'adaptation de domaine dans les ENN avec des groupes dièdres $D_N$ de divers degrés et constatons que les performances du modèle s'améliorent à mesure que le degré d'isomorphisme augmente.