Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SplitFrozen: Split Learning with Device-side Model Frozen for Fine-Tuning LLM on Heterogeneous Resource-Constrained Devices

Created by
  • Haebom
Category
Empty

저자

Jian Ma, Xinchen Lyu, Jun Jiang, Qimei Cui, Haipeng Yao, Xiaofeng Tao

개요

본 논문은 개인 맞춤형 AI 에이전트를 가능하게 하는 개인 소유의 온디바이스 데이터를 사용한 대규모 언어 모델(LLM)의 파인튜닝에 초점을 맞추고 있습니다. 자원 제약이 있는 에지 디바이스에서 LLM을 파인튜닝하는 것은 과도한 계산 오버헤드, 디바이스 이질성, 데이터 불균형 등의 어려움에 직면합니다. 이를 해결하기 위해, 본 논문에서는 SplitFrozen이라는 분할 학습 프레임워크를 제안합니다. SplitFrozen은 디바이스 측 모델 레이어를 전략적으로 동결하고 서버에서 매개변수 효율적인 파인튜닝을 중앙 집중화함으로써 효율적인 LLM 파인튜닝을 가능하게 합니다. 이 프레임워크는 LLM을 디바이스 측 동결 레이어와 서버 측 파인튜닝 레이어로 분할하여 이질적인 자원 제약 디바이스에서 순전파만 실행하도록 합니다. 서버 측 훈련 비용을 최소화하기 위해 저랭크 적응(LoRA)을 서버 측 레이어에 통합하고, 파이프라인 병렬 전략을 통해 디바이스-서버 계산을 분리하고 분해된 역전파를 활용하여 훈련 효율을 더욱 최적화합니다. MRPC, MNLI-matched, SST-2 데이터셋을 사용한 GPT-2 실험 결과, SplitFrozen은 극도로 불균형한 데이터에서 FedLoRA 및 SplitLoRA보다 모델 정확도가 69.4% 향상되었고, 디바이스 측 계산량은 최대 86.8%, 총 훈련 시간은 50.2% 감소했습니다. 또한 GSM8K 데이터셋을 사용한 Llama-3.2 모델을 이용한 콘텐츠 생성 작업에서 SplitFrozen의 확장성을 검증했습니다.

시사점, 한계점

시사점:
자원 제약 에지 디바이스에서의 효율적인 LLM 파인튜닝을 위한 새로운 프레임워크 SplitFrozen 제안
데이터 불균형 환경에서 기존 방법들보다 향상된 성능과 효율성을 보임 (정확도 향상, 계산량 및 훈련 시간 감소)
다양한 LLM 및 데이터셋에서의 확장성 검증
한계점:
제안된 프레임워크의 실제 적용 가능성 및 안정성에 대한 추가적인 연구 필요
다양한 에지 디바이스 환경 및 데이터 특성에 대한 로버스트니스 검증 필요
서버 측 부하 및 통신 오버헤드에 대한 추가적인 분석 필요
👍