Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Trading-off Accuracy and Communication Cost in Federated Learning

Created by
  • Haebom
Category
Empty

저자

Mattia Jacopo Villani, Emanuele Natale, Frederik Mallmann-Trenn

개요

Zhou et al.과 Isik et al.이 제시한 training-by-pruning 패러다임을 활용하여 연합 학습 프로토콜을 제안합니다. 이 프로토콜은 통신 비용을 34배까지 줄이며, 기존 최고 성능 대비 몇 배에 달하는 압축 성능 향상을 달성합니다. 핵심 아이디어는 네트워크 가중치 벡터 $\vec w$를 훈련 가능한 매개변수 벡터 $\vec p$로 인코딩하는 것으로, $\vec w = Q \cdot \vec p$ 와 같이 표현됩니다. 여기서 $Q$는 신중하게 생성된 희소 랜덤 행렬(훈련 과정 동안 고정)입니다. 기존 Zhou et al. [NeurIPS'19]의 연구는 $Q$가 대각 행렬이고 $\vec p$의 차원이 $\vec w$와 같은 경우에 해당합니다. 본 연구에서는 $Q$의 희소성 감소를 감수하는 대신, $\vec p$의 차원을 $\vec w$보다 훨씬 작게 선택해도 동일한 정확도를 유지할 수 있음을 보입니다. 서버와 클라이언트는 $\vec p$만 공유하면 되므로, 이러한 절충은 통신 비용을 크게 절감합니다. 또한, 이 프레임워크에 대한 이론적 통찰력을 제공하고, 훈련-샘플링과 무작위 볼록 기하학 간의 새로운 연결을 확립합니다.

시사점, 한계점

시사점:
연합 학습에서 통신 비용을 획기적으로(34배) 줄이는 새로운 프로토콜 제시.
기존 최고 성능 대비 압축 성능을 몇 배 향상.
훈련-샘플링과 무작위 볼록 기하학 간의 새로운 연결을 통한 이론적 기반 마련.
$\vec p$의 차원을 줄이는 효율적인 매개변수 인코딩 전략 제시.
한계점:
$Q$의 희소성 감소에 따른 성능 저하 가능성에 대한 추가적인 분석 필요.
다양한 연합 학습 환경에서의 일반화 성능 검증 필요.
제안된 프레임워크의 실제 구현 및 적용에 대한 구체적인 설명 부족.
👍