Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CG-FedLLM: How to Compress Gradients in Federated Fune-tuning for Large Language Models

Created by
  • Haebom
Category
Empty

저자

Huiwen Wu, Xiaogang Xu, Deyi Zhang, Xiaohan Li, Jiafei Wu, Zhe Liu

개요

본 연구는 대규모 언어 모델(LLM)의 연합 학습(FL)에서 통신 효율성을 개선하기 위해 기울기를 압축하는 혁신적인 접근 방식을 제시합니다. CG-FedLLM이라는 새로운 FL 파이프라인을 도입하여 클라이언트 측에서 압축된 기울기 특징을 획득하는 인코더와 서버 측에서 기울기를 재구성하는 디코더를 통합합니다. 또한, 특징적인 기울기를 식별하기 위한 Temporal-ensemble Gradient-Aware Pre-training (TGAP)과 기울기를 적응적으로 압축하기 위한 Federated AutoEncoder-Involved Fine-tuning (FAF)으로 구성된 새로운 훈련 전략을 개발했습니다. CG-FedLLM은 통신 비용을 줄이고 성능을 향상시키며, 특히 C-Eval 벤치마크에서 기존의 중앙 집중 학습(CL) 및 FL 기반 미세 조정에 비해 평균 3점 향상을 보였습니다.

시사점, 한계점

시사점:
연합 학습 기반 LLM에서 통신 효율성을 개선하는 새로운 방법론 제시.
기울기 압축을 위한 인코더-디코더 구조 및 새로운 훈련 전략(TGAP, FAF) 개발.
C-Eval 벤치마크에서 성능 향상 입증.
개인 정보 보호 중심 프레임워크 내에서 신호 대 잡음비, 압축률 및 견고성에 대한 실험적 분석 제공.
한계점:
논문에 구체적인 한계점에 대한 언급은 없음.
👍