Cet article propose une nouvelle méthode d'agrégation de modèles, FedPALS, pour remédier à la dégradation des performances causée par le décalage d'étiquettes entre les domaines client et cible dans l'apprentissage fédéré. FedPALS exploite les informations de distribution d'étiquettes provenant d'un serveur central pour ajuster l'agrégation du modèle en fonction du domaine cible, obtenant ainsi une généralisation robuste sur diverses données client avec décalage d'étiquettes. FedPALS garantit des mises à jour sans distorsion en descente de gradient stochastique fédérée (SGD), et des expériences approfondies sur des tâches de classification d'images démontrent ses performances supérieures aux méthodes existantes. Plus précisément, nous démontrons que les méthodes d'apprentissage fédéré existantes subissent une dégradation importante des performances lorsque les étiquettes client sont très insuffisantes, soulignant l'importance de l'agrégation sensible au domaine cible proposée par FedPALS.