본 연구는 대규모 언어 모델(LLM)의 연합 학습(FL)에서 통신 효율성을 개선하기 위해 기울기를 압축하는 혁신적인 접근 방식을 제시합니다. CG-FedLLM이라는 새로운 FL 파이프라인을 도입하여 클라이언트 측에서 압축된 기울기 특징을 획득하는 인코더와 서버 측에서 기울기를 재구성하는 디코더를 통합합니다. 또한, 특징적인 기울기를 식별하기 위한 Temporal-ensemble Gradient-Aware Pre-training (TGAP)과 기울기를 적응적으로 압축하기 위한 Federated AutoEncoder-Involved Fine-tuning (FAF)으로 구성된 새로운 훈련 전략을 개발했습니다. CG-FedLLM은 통신 비용을 줄이고 성능을 향상시키며, 특히 C-Eval 벤치마크에서 기존의 중앙 집중 학습(CL) 및 FL 기반 미세 조정에 비해 평균 3점 향상을 보였습니다.
시사점, 한계점
•
시사점:
◦
연합 학습 기반 LLM에서 통신 효율성을 개선하는 새로운 방법론 제시.
◦
기울기 압축을 위한 인코더-디코더 구조 및 새로운 훈련 전략(TGAP, FAF) 개발.
◦
C-Eval 벤치마크에서 성능 향상 입증.
◦
개인 정보 보호 중심 프레임워크 내에서 신호 대 잡음비, 압축률 및 견고성에 대한 실험적 분석 제공.