Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Adaptive Rank Allocation for Federated Parameter-Efficient Fine-Tuning of Language Models

Created by
  • Haebom

저자

Fei Wu, Jia Hu, Geyong Min, Shiqiang Wang

개요

본 논문은 분산 환경에서 사전 훈련된 언어 모델(PLM)의 파라미터 효율적인 미세 조정(PEFT)의 한계점을 해결하기 위해 새로운 적응형 계급 할당 프레임워크인 FedARA를 제안합니다. FedARA는 장치 간 데이터 이질성으로 인한 성능 저하를 완화하기 위해 Truncated SVD를 사용하여 유사한 특징 표현을 향상시키고, 통신 효율을 개선하기 위해 동적 계급 할당을 활용하며, 계산 비용과 메모리 사용량을 줄이기 위해 계급 기반 모듈 가지치기를 적용합니다. 다양한 데이터셋과 모델에 대한 실험 결과, FedARA는 기존 방법보다 평균 6.95%~8.49% 향상된 성능을 보였으며, 통신 효율 또한 2.40배 향상되었습니다. 또한, 다양한 에지 장치에서의 실험을 통해 훈련 시간과 에너지 소비량이 최대 48.90% 및 46.95% 감소하는 것을 확인했습니다.

시사점, 한계점

시사점:
FedARA는 이질적인 데이터 분포를 가진 분산 환경에서 PLM의 파라미터 효율적인 미세 조정 성능을 향상시킵니다.
동적 계급 할당과 계급 기반 모듈 가지치기를 통해 통신 효율과 자원 사용 효율을 크게 개선합니다.
에지 장치에서의 훈련 시간 및 에너지 소비량을 상당히 감소시킵니다.
한계점:
본 논문에서 제시된 FedARA의 성능 향상은 특정 데이터셋과 모델에 국한될 수 있습니다. 더욱 다양한 환경에서의 추가적인 실험이 필요합니다.
Truncated SVD와 동적 계급 할당의 최적 파라미터 설정은 데이터셋과 모델에 따라 달라질 수 있으며, 이에 대한 자동화된 방법이 필요할 수 있습니다.
계급 기반 모듈 가지치기의 효과는 가지치기 비율에 민감할 수 있으며, 최적의 가지치기 비율을 결정하는 것이 중요합니다.
👍