Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Federated Domain Generalization with Data-free On-server Matching Gradient

Created by
  • Haebom

저자

Trong-Binh Nguyen, Minh-Duong Nguyen, Jinsun Park, Quoc-Viet Pham, Won Joo Hwang

개요

본 논문은 분산 환경에서의 도메인 일반화(Federated Domain Generalization, FDG) 문제를 해결하기 위해 새로운 접근 방식인 FedOMG(Federated Learning via On-server Matching Gradient)를 제안합니다. FedOMG는 각 클라이언트에 분산된 다양한 도메인의 데이터를 효율적으로 활용하여 도메인 불변 표현을 학습합니다. 기존의 도메인 불변 표현 학습 방식과 달리, 중앙 서버에서 각 클라이언트의 지역적 그래디언트를 이용하여 도메인 간 불변 그래디언트 방향을 찾습니다. 이는 추가적인 통신 비용 없이 분산 모델의 특징을 집계하고, 기존 FL/FDG 방법과의 통합을 통해 성능 향상을 가져옵니다. MNIST, EMNIST, CIFAR-10, CIFAR-100, PACS, VLCS, OfficeHome 등 다양한 벤치마크 데이터셋에서 SOTA 성능을 달성했습니다.

시사점, 한계점

시사점:
분산 환경에서의 도메인 일반화 문제에 대한 효율적인 해결 방안 제시
추가적인 통신 비용 없이 분산 모델의 특징을 활용
기존 FL/FDG 방법과의 호환성 및 성능 향상 가능성
다양한 벤치마크 데이터셋에서 SOTA 성능 달성
한계점:
제시된 방법의 계산 복잡도에 대한 분석 부족
다양한 분산 환경 및 데이터 분포에 대한 견고성에 대한 추가적인 연구 필요
실제 응용 분야에 대한 적용 및 성능 평가 부족
👍