En este artículo, proponemos un novedoso algoritmo de adaptación de dominio (AD), SIDDA, basado en la divergencia de Sinkhorn, para abordar el problema del desplazamiento de covariables; es decir, la degradación del rendimiento de generalización de las redes neuronales cuando las distribuciones de los datos de entrenamiento y de prueba son diferentes, pero las distribuciones condicionales son iguales. SIDDA logra una alineación de dominio efectiva con un ajuste de hiperparámetros y un coste computacional mínimos. Demostramos la eficacia de SIDDA en conjuntos de datos simulados y reales (p. ej., formas simples, dígitos manuscritos y datos de observación astronómica) con diversas complejidades, y demostramos su eficacia para mejorar la precisión de la clasificación y la calibración del modelo, especialmente al utilizarse con redes neuronales equivariantes (ENN). SIDDA logra una mejora de hasta un 40 % en la precisión de la clasificación y mejora significativamente la calibración del modelo (mejora de más de 10 veces en las puntuaciones ECE y Brier). Es compatible con diversas arquitecturas de redes neuronales y permite el desarrollo de modelos generalizables en estudios con múltiples conjuntos de datos. Además, estudiamos el efecto de la adaptación del dominio en ENN con grupos diedros $D_N$ de varios grados y encontramos que el rendimiento del modelo mejora a medida que aumenta el grado de isomorfismo.