En este artículo, proponemos un enfoque novedoso para el aprendizaje de Redes Generativas Antagónicas (GAN) en entornos distribuidos. Para resolver las dificultades de asegurar conjuntos de datos a gran escala y los altos recursos computacionales que requiere el aprendizaje GAN convencional, proponemos un método de aprendizaje GAN distribuido que utiliza datos distribuidos y dispositivos de bajo rendimiento. Para resolver los problemas de heterogeneidad de datos y conjuntos de datos multidominio, combinamos el Aprendizaje Federado en Clúster ponderado por KLD, y para resolver la heterogeneidad de dispositivos y las estrictas restricciones de compartición de datos, combinamos el aprendizaje dividido heterogéneo en forma de U. Esto permite el aprendizaje de modelos sin compartir datos originales ni etiquetas, y los resultados experimentales muestran que se mejoran las puntuaciones de generación de imágenes y el rendimiento de clasificación, y se reduce la latencia en comparación con los métodos existentes. El código está disponible en GitHub.