본 논문은 연합 학습에서 모델 가중치를 공유하는 대신 손실 예측값을 공유하는 새로운 방법을 제안합니다. 클라이언트들은 공용 테스트 세트에 대한 손실 예측값을 주기적으로 공유하고, 각 클라이언트는 자신의 지역 손실과 다른 클라이언트들의 손실에 대한 평균 Kullback-Leibler 발산을 결합하여 모델을 개선합니다. 이 방법은 가중치 공유 방식에 비해 전송 오버헤드를 줄이고 데이터 프라이버시를 향상시키면서, 얼굴 마스크 탐지 작업 실험에서 더 높은 정확도와 일반화 성능을 보였습니다.