Este artículo presenta un método para mejorar la robustez del aprendizaje federado (FL), que permite el aprendizaje colaborativo de modelos entre clientes distribuidos sin compartir datos sin procesar. Las técnicas de defensa existentes presentan limitaciones fundamentales, como la dependencia de reglas de agregación robustas o heurísticas cuyos límites de error aumentan a medida que aumenta la heterogeneidad del cliente, o métodos basados en la detección que requieren un conjunto de datos externo fiable para su validación. En este artículo, presentamos un marco de defensa que sintetiza datos representativos para validar las actualizaciones del cliente en el servidor mediante una red generativa adversarial condicional (cGAN). Este método elimina la dependencia de conjuntos de datos externos, se adapta a diversas estrategias de ataque y se integra a la perfección en los flujos de trabajo estándar de FL. Amplios experimentos con conjuntos de datos de referencia demuestran que el marco propuesto distingue con precisión entre clientes maliciosos e inofensivos, manteniendo al mismo tiempo la precisión general del modelo. Además de la robustez bizantina, investigamos la representatividad de los datos sintéticos, el coste computacional del entrenamiento de cGAN, y la transparencia y escalabilidad del enfoque.