Cet article vise à mettre en œuvre un système s'adaptant en permanence à l'évolution des environnements et des tâches dans des robots à apprentissage continu. Contrairement aux approches existantes, nous présentons un cadre génératif qui améliore l'alignement des modèles en transformant les actions planifiées elles-mêmes, plutôt qu'en utilisant des modèles mal alignés. Ce cadre utilise la correspondance de flux pour aligner les modèles dynamiques du robot en ligne. Cela permet au robot de collecter plus efficacement des données riches en informations, d'accélérer l'apprentissage, de gérer des modèles évolutifs et potentiellement incomplets, et de réduire sa dépendance aux tampons de relecture ou aux instantanés de modèles existants. Les résultats expérimentaux obtenus avec des véhicules terrestres sans pilote et des quadrirotors démontrent l'adaptabilité et l'efficacité de notre méthode, avec un taux de réussite des tâches supérieur de 34,2 % à celui des méthodes existantes.