Dans cet article, nous proposons une nouvelle approche pour l'apprentissage des réseaux antagonistes génératifs (GAN) en environnements distribués. Afin de résoudre les difficultés liées à la sécurisation des ensembles de données à grande échelle et aux ressources de calcul importantes requises pour l'apprentissage GAN conventionnel, nous proposons une méthode d'apprentissage GAN distribuée utilisant des données distribuées et des périphériques peu performants. Pour résoudre les problèmes d'hétérogénéité des données et d'ensembles de données multi-domaines, nous combinons l'apprentissage fédéré en cluster pondéré par KLD, et pour résoudre l'hétérogénéité des périphériques et les contraintes strictes de partage des données, nous combinons l'apprentissage fractionné en U hétérogène. Cela permet l'apprentissage de modèles sans partage des données ou des étiquettes d'origine, et les résultats expérimentaux montrent que les scores de génération d'images et les performances de classification sont améliorés et la latence est réduite par rapport aux méthodes existantes. Le code est disponible sur GitHub.