FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA
Created by
Haebom
Category
Empty
저자
Seanie Lee, Sangwoo Park, Dong Bok Lee, Dominik Wagner, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
개요
Low-Rank Adaptation (LoRA)은 연합 학습(FL)에서 언어 모델의 효율적인 미세 조정을 위해 널리 사용되지만, 차등적 프라이버시 확률적 경사 하강법(DP-SGD)과 결합하면 노이즈 증폭 문제가 발생합니다. 본 논문에서는 특이값 분해(SVD)를 기반으로 하는 전역 재매개변수화 방법을 제안하는 $\texttt{FedSVD}$를 제시합니다. $\texttt{FedSVD}$는 각 클라이언트가 $B$ 행렬만 최적화하고 서버에 전송하며, 서버는 $B$ 행렬을 집계하고 이전 $A$를 사용하여 $BA$를 계산한 후 SVD를 통해 재분해합니다. 이를 통해 노이즈 증폭을 피하고, $A$가 집계된 업데이트의 주요 방향을 더 잘 포착하도록 하며, DP-SGD 하에서 더 많은 신호를 보존할 수 있습니다. $\texttt{FedSVD}$는 다양한 프라이버시 설정과 벤치마크에서 안정성과 성능을 일관되게 개선합니다.
시사점, 한계점
•
$\texttt{FedSVD}$는 DP-SGD와 결합된 LoRA의 노이즈 증폭 문제를 해결하기 위해 SVD를 활용한 효율적인 프레임워크를 제시합니다.
•
$A$ 행렬의 정규 직교 구조를 통해 DP-SGD 하에서 그래디언트 노름을 제한하고 신호 보존 능력을 향상시킵니다.