Cet article présente une méthode visant à améliorer la robustesse de l'apprentissage fédéré (AF), qui permet l'apprentissage collaboratif de modèles entre clients distribués sans partage de données brutes. Les techniques de défense existantes souffrent de limitations fondamentales, telles que le recours à des règles d'agrégation ou à des heuristiques robustes dont les bornes inférieures d'erreur augmentent avec l'hétérogénéité des clients, ou à des méthodes basées sur la détection qui nécessitent un jeu de données externe fiable pour la validation. Dans cet article, nous présentons un cadre de défense qui synthétise des données représentatives pour valider les mises à jour des clients sur le serveur à l'aide d'un réseau antagoniste génératif conditionnel (cGAN). Cette méthode élimine la dépendance aux jeux de données externes, s'adapte à diverses stratégies d'attaque et s'intègre parfaitement aux workflows d'AF standard. Des expériences approfondies sur des jeux de données de référence démontrent que le cadre proposé distingue précisément les clients malveillants des clients bénins tout en préservant la précision globale du modèle. Outre la robustesse byzantine, nous étudions la représentativité des données synthétiques, le coût de calcul de l'apprentissage du cGAN, ainsi que la transparence et l'évolutivité de l'approche.