Dans cet article, nous proposons FedTruth, une technique de défense contre les attaques par empoisonnement de modèle, telles que les attaques byzantines et les attaques par porte dérobée en apprentissage fédéré (FL), où des clients malveillants affectent le modèle entraîné en injectant des erreurs dans ses mises à jour. Les techniques de défense existantes utilisent des jeux de données racines bénins ou une moyenne/médiane tronquée, ce qui peut éliminer les contributions d'ensembles de données irréalistes ou minoritaires. FedTruth estime la mise à jour du modèle de vérité terrain parmi toutes les mises à jour du modèle à l'aide de pondérations agrégées dynamiques, sans hypothèses spécifiques sur la distribution des données bénignes ou malveillantes, ni sur l'accès au jeu de données racine bénin. Ainsi, elle prend en compte les contributions potentielles de tous les clients bénins. Les résultats expérimentaux montrent que FedTruth réduit l'impact des mises à jour de modèle malveillantes sur les attaques byzantines et les attaques par porte dérobée, et qu'il est efficace dans les systèmes FL à grande échelle.