Este artículo propone un novedoso método de agregación de modelos, FedPALS, para abordar la degradación del rendimiento causada por el desplazamiento de etiquetas entre los dominios cliente y objetivo en el aprendizaje federado. FedPALS aprovecha la información de distribución de etiquetas de un servidor central para ajustar la agregación de modelos en función del dominio objetivo, logrando una generalización robusta en diversos datos de cliente con desplazamiento de etiquetas. FedPALS garantiza actualizaciones sin distorsiones bajo el método de descenso de gradiente estocástico (SGD) federado, y amplios experimentos en tareas de clasificación de imágenes demuestran su rendimiento superior al de los métodos existentes. En concreto, demostramos que los métodos de aprendizaje federado existentes sufren una grave degradación del rendimiento cuando las etiquetas de cliente son insuficientes, lo que resalta la importancia de la agregación con reconocimiento del dominio objetivo propuesta por FedPALS.