본 논문은 분산 환경에서의 도메인 일반화(Federated Domain Generalization, FDG) 문제를 해결하기 위해 새로운 접근 방식인 FedOMG(Federated Learning via On-server Matching Gradient)를 제안합니다. FedOMG는 각 클라이언트에 분산된 다양한 도메인의 데이터를 효율적으로 활용하여 도메인 불변 표현을 학습합니다. 기존의 도메인 불변 표현 학습 방식과 달리, 중앙 서버에서 각 클라이언트의 지역적 그래디언트를 이용하여 도메인 간 불변 그래디언트 방향을 찾습니다. 이는 추가적인 통신 비용 없이 분산 모델의 특징을 집계하고, 기존 FL/FDG 방법과의 통합을 통해 성능 향상을 가져옵니다. MNIST, EMNIST, CIFAR-10, CIFAR-100, PACS, VLCS, OfficeHome 등 다양한 벤치마크 데이터셋에서 SOTA 성능을 달성했습니다.