Cet article aborde le problème suivant : les systèmes d’apprentissage automatique fonctionnent sous l’hypothèse que les données d’apprentissage et de test sont échantillonnées à partir de distributions de probabilité fixes. Or, en pratique, cette hypothèse est rarement confirmée en raison de l’évolution des conditions d’acquisition des données. Par conséquent, nous étudions comment réaliser une adaptation de domaine non supervisée avec un accès minimal aux données et de nouvelles conditions afin d’apprendre un modèle robuste aux variations de distribution des données. Plus précisément, nous analysons les variations de distribution en utilisant le transport optimal, qui permet la cartographie entre domaines. Cependant, pour pallier le coût de calcul élevé des méthodes de transport optimal existantes, nous explorons le transport optimal entre modèles de mélange gaussien (GMM). L’utilisation de GMM réduit efficacement la complexité de calcul et nous démontrons, à travers neuf tests et un total de 85 tâches d’adaptation, qu’elle est plus efficace que les méthodes d’adaptation de domaine superficielles existantes, et qu’elle s’adapte bien au nombre d’échantillons (n) et à la dimensionnalité (d).