Cet article propose une analyse complète de l'apprentissage continu fédéré (FCL), une solution performante pour l'apprentissage collaboratif de modèles utilisant des échantillons de données générés et distribués en continu sur plusieurs appareils dans des environnements dynamiques. Il se concentre sur les principaux défis tels que l'hétérogénéité, la stabilité des modèles, la surcharge de communication et la confidentialité. Nous explorons différentes formes d'hétérogénéité et leur impact sur les performances des modèles, et démontrons la complexité de la gestion de distributions de données hétérogènes en examinant des solutions pour les données non IID, les plateformes à ressources limitées et l'apprentissage personnalisé. Nous passons également en revue les techniques permettant d'assurer une stabilité significative des modèles et d'éviter les oublis catastrophiques dans des environnements anormaux, ainsi que les techniques de préservation de la confidentialité. En conclusion, cet article présente des stratégies pour améliorer l'efficacité et l'évolutivité des systèmes FCL, fournissant des informations intégrées applicables à un large éventail de scénarios réels.