FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA
Created by
Haebom
저자
Seanie Lee, Sangwoo Park, Dong Bok Lee, Dominik Wagner, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
개요
본 논문은 연합 학습(FL)에서 언어 모델의 효율적인 미세 조정을 위해 사용되는 저랭크 적응(LoRA)이 차등 개인 정보 보호 확률적 경사 하강법(DP-SGD)과 결합될 때 상당한 노이즈 증폭 문제를 겪는다는 점을 지적합니다. 이를 해결하기 위해, 본 논문은 특이값 분해(SVD) 기반의 전역적 재매개변수화를 도입한 FedSVD라는 간단하면서도 효과적인 방법을 제안합니다. FedSVD는 각 클라이언트가 B 행렬만 최적화하고 서버에 전송하도록 하며, 서버는 B 행렬을 집계하고 이전 A 행렬을 사용하여 BA 곱을 계산한 후 SVD를 통해 재분해합니다. 이를 통해 집계 업데이트의 주요 방향을 더 잘 포착하는 새로운 적응형 A 행렬과 나머지 SVD 구성 요소를 포함하는 업데이트된 B 행렬을 얻습니다. 이러한 재매개변수화는 이차 노이즈 증폭을 방지하는 동시에 A가 집계 업데이트의 주요 방향을 더 잘 포착할 수 있도록 합니다. 또한 A의 직교 구조는 B의 기울기 놈을 제한하고 DP-SGD 하에서 더 많은 신호를 보존합니다. 결과적으로 FedSVD는 다양한 개인 정보 보호 설정 및 벤치마크에서 안정성과 성능을 일관되게 향상시키며, 개인 정보 보호 및 비개인 정보 보호 환경 모두에서 관련 기준보다 우수한 성능을 보입니다.
시사점, 한계점
•
시사점:
◦
LoRA와 DP-SGD 결합 시 발생하는 노이즈 증폭 문제를 효과적으로 해결하는 FedSVD 기법 제시.
◦
SVD 기반 재매개변수화를 통해 모델의 표현력을 유지하면서 노이즈 증폭을 완화.
◦
개인 정보 보호 및 비개인 정보 보호 환경 모두에서 기존 방법보다 우수한 성능과 안정성을 달성.