En este artículo, proponemos un enfoque novedoso, el Aprendizaje Federado mediante Gradiente de Coincidencia en Servidor (FedOMG), para resolver el problema de Generalización de Dominio Federado (FDG) en un entorno distribuido. FedOMG utiliza eficientemente datos de diversos dominios distribuidos a cada cliente para aprender representaciones invariantes en el dominio. A diferencia de los métodos convencionales de aprendizaje de representaciones invariantes en el dominio, el servidor central encuentra la dirección del gradiente invariante entre dominios utilizando el gradiente local de cada cliente. Esto agrega las características del modelo distribuido sin costos de comunicación adicionales y mejora el rendimiento mediante la integración con métodos FL/FDG existentes. Logra un rendimiento SOTA en diversos conjuntos de datos de referencia como MNIST, EMNIST, CIFAR-10, CIFAR-100, PACS, VLCS y OfficeHome.