Este artículo aborda el problema de que los sistemas de aprendizaje automático operan bajo el supuesto de que los datos de entrenamiento y prueba se muestrean de distribuciones de probabilidad fijas, pero en la práctica este supuesto rara vez se confirma debido a los cambios en las condiciones de adquisición de datos. Por lo tanto, estudiamos cómo realizar una adaptación de dominio no supervisada con un acceso mínimo a los datos con nuevas condiciones para aprender un modelo que sea robusto a los cambios en la distribución de datos. En particular, analizamos los cambios de distribución utilizando el transporte óptimo, que permite el mapeo entre dominios, pero para abordar el alto costo computacional de los métodos de transporte óptimo existentes, exploramos el transporte óptimo entre modelos de mezcla gaussiana (GMM). El uso de GMM reduce efectivamente la complejidad computacional y demostramos que es más eficiente que los métodos existentes de adaptación de dominio superficial a través de nueve puntos de referencia y un total de 85 tareas de adaptación, y que escala bien con respecto al número de muestras (n) y la dimensionalidad (d).