Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FedRW: Efficient Privacy-Preserving Data Reweighting for Enhancing Federated Learning of Language Models

Created by
  • Haebom
Category
Empty

저자

Pukang Ye, Junwei Luo, Xiaolei Dong, Yunbo Yang

개요

본 논문은 대규모 언어 모델(LLM) 학습 시 데이터 중복으로 인한 성능 저하 및 개인 정보 보호 문제를 해결하기 위해, 신뢰할 수 있는 제3자 없이 연합 학습 환경에서 샘플 재가중치를 통해 소프트 중복 제거를 수행하는 최초의 프레임워크인 Federated ReWeighting (FedRW)를 제안합니다. FedRW는 안전한 다자간 연산(MPC)을 통한 안전한 빈도 인식 재가중치 프로토콜과 효율성 및 확장성을 위한 병렬 오케스트레이션 전략을 핵심으로 합니다. 훈련 중 FedRW는 전역 샘플 빈도를 사용하여 개별 손실 기여도를 조정하는 적응형 재가중치 메커니즘을 활용하여 일반화 및 견고성을 향상시킵니다.

시사점, 한계점

시사점:
개인 정보 보호를 보장하면서 연합 학습 환경에서 데이터 중복 문제를 해결하는 새로운 프레임워크 제시.
샘플 삭제 대신 재가중치를 사용하여 정보 손실을 최소화.
안전한 다자간 연산을 통해 개인 정보 보호를 강화.
기존 방법 대비 전처리 속도 최대 28.78배 향상 및 혼란도 약 11.42% 개선.
일반화 및 견고성 향상.
한계점:
구체적인 한계점은 논문에 명시되지 않음.
👍