Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FedALT: Federated Fine-Tuning through Adaptive Local Training with Rest-of-World LoRA

Created by
  • Haebom
Category
Empty

저자

Jieming Bian, Lei Wang, Letian Zhang, Jie Xu

개요

본 논문은 연합 학습 환경에서 대규모 언어 모델(LLM)을 미세 조정하는 새로운 방법인 FedALT를 제안한다. FedAvg 기반의 기존 연합 LoRA 미세 조정 방식이 데이터 이질성으로 인해 발생하는 상호 간섭 문제를 해결하기 위해, FedALT는 모델 통합 없이 각 클라이언트가 개별 LoRA를 계속 훈련하면서 RoW(Rest-of-World) LoRA 컴포넌트를 통해 공유 지식을 통합한다. 또한, 지역 적응과 글로벌 정보의 균형을 효과적으로 유지하기 위해, 입력 특정 가중치를 동적으로 학습하는 적응형 믹서를 도입하여 MoE(Mixture-of-Experts) 패러다임을 활용한다. 실험 결과 FedALT는 기존 방식보다 우수한 성능을 보였다.

시사점, 한계점

FedAvg와 다른 방식을 사용하여 연합 LoRA 미세 조정의 상호 간섭 문제를 해결하고 성능을 향상시킴
MoE 기반의 적응형 믹서를 통해 지역 적응과 글로벌 정보의 균형을 효과적으로 달성
NLP 벤치마크에서 기존 SOTA(State-of-the-Art) 방식보다 우수한 성능 입증
계산 효율성을 유지하면서 성능을 개선
모델 복잡성 증가 및 믹서 학습에 따른 추가적인 계산 비용 발생 가능성
RoW LoRA 컴포넌트의 효과적인 설계 및 학습 방법에 대한 추가 연구 필요
다양한 데이터셋 및 모델 아키텍처에 대한 일반화 성능 검증 필요
👍