Cet article présente une nouvelle méthode, l'entraînement croisé fédéré (FedCT), qui améliore les stratégies d'entraînement croisé dans l'apprentissage fédéré. Pour pallier les limites de l'entraînement croisé actuel, telles que les objectifs d'optimisation non concordants et l'hétérogénéité de l'espace des caractéristiques due aux différences de distribution des données, cette méthode exploite la distillation des connaissances à partir de perspectives locales et globales. Plus précisément, elle se compose de trois modules : un module de propagation des connaissances tenant compte de la cohérence, un module d'apprentissage de représentations multi-perspectives guidé par les connaissances et un module d'augmentation des caractéristiques basé sur le mixup. Ces modules préservent les connaissances locales, maintiennent la cohérence entre les connaissances locales et globales et augmentent la diversité de l'espace des caractéristiques, améliorant ainsi les performances. Les résultats expérimentaux obtenus à partir de quatre jeux de données montrent que FedCT surpasse les méthodes de pointe existantes.