본 논문은 분산형 연합 학습(Decentralized Federated Learning, DFL)의 일반화 성능 향상을 위한 새로운 기법인 DeSA(Decentralized Federated Learning with Synthetic Anchors)를 제안합니다. 기존 DFL은 글로벌 모델이 없어 모델의 일반화 성능이 저하될 수 있다는 한계를 가지고 있습니다. DeSA는 도메인 적응 및 지식 증류(Knowledge Distillation, KD) 이론을 기반으로, 원시 데이터 분포를 이용하여 합성된 글로벌 앵커(Synthetic Anchors)를 생성하여 클라이언트 간 지식 전달을 용이하게 합니다. 또한, 클라이언트의 잠재적 임베딩 분포를 앵커와 정규화하는 REG loss와 클라이언트 간 상호 학습을 가능하게 하는 KD loss라는 두 가지 정규화 항을 설계하여 각 클라이언트의 도메인 내 및 도메인 간 정확도를 향상시킵니다. 다양한 클라이언트 데이터 분포에 대한 광범위한 실험을 통해 DeSA의 효과를 입증합니다.