Cet article se concentre sur l'intégration de graphes de connaissances fédérés (FKGE), qui apprend collaborativement des intégrations d'entités et de relations à partir de graphes de connaissances (KG) de plusieurs clients dans un environnement distribué. Les intégrations de grande dimension offrent des avantages en termes de performances, mais posent des défis en termes d'espace de stockage et de vitesse d'inférence. Les méthodes de compression d'intégration existantes nécessitent plusieurs apprentissages du modèle, ce qui augmente les coûts de communication de FKGE. Par conséquent, cet article propose FedKD, un composant léger basé sur la distillation des connaissances (KD). FedKD permet à un modèle d'élève de faible dimension de reproduire la distribution des scores triplets d'un modèle d'enseignant de grande dimension en utilisant la perte de divergence KL lors de l'apprentissage local côté client. Contrairement à la KD conventionnelle, FedKD apprend de manière adaptative les températures pour les scores triplets positifs et ajuste les scores triplets négatifs à l'aide de températures prédéfinies, atténuant ainsi le problème de confiance excessive de l'enseignant. De plus, il ajuste dynamiquement les pondérations de la perte KD afin d'optimiser le processus d'apprentissage. Nous validons l'efficacité de FedKD par des expériences approfondies sur trois jeux de données.