Este artículo presenta un nuevo marco de defensa que mejora la robustez frente a acciones bizantinas, como el envenenamiento de datos y modelos, en el aprendizaje federado (FL). Las técnicas de defensa existentes se basan en reglas o heurísticas de agregación robustas, cuyos límites inferiores de error aumentan a medida que aumenta la heterogeneidad del cliente, o bien requieren un conjunto de datos externo fiable para su validación. En este artículo, proponemos un marco de defensa que sintetiza datos representativos para validar las actualizaciones del cliente en el servidor mediante una red generativa adversarial condicional (cGAN). Este enfoque elimina la dependencia de conjuntos de datos externos, se adapta a diversas estrategias de ataque y se integra a la perfección en los flujos de trabajo estándar de FL. Experimentos exhaustivos con conjuntos de datos de referencia demuestran que el marco propuesto distingue con precisión entre clientes maliciosos y benignos, manteniendo al mismo tiempo la precisión general del modelo. Además de la robustez bizantina, investigamos la representatividad de los datos sintéticos, el coste computacional del entrenamiento de la cGAN, y la transparencia y escalabilidad del enfoque.