[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FLAME: Towards Federated Fine-Tuning Large Language Models Through Adaptive SMoE

Created by
  • Haebom

저자

Khiem Le, Tuan Tran, Ting Hua, Nitesh V. Chawla

개요

본 논문은 계산 자원이 제한된 클라이언트 환경에서의 연합 학습을 위한 새로운 프레임워크인 FLAME을 제안합니다. 기존의 리소스 적응형 LoRA 연합 미세조정 방법들은 글로벌 LoRA 행렬의 압축 버전을 사용하여 클라이언트의 다양한 계산 자원을 수용하지만, 정보 손실로 인해 성능 저하가 발생합니다. FLAME은 희소 전문가 혼합(SMoE) 아키텍처를 기반으로 하며, 압축되지 않은 전체 글로벌 LoRA 행렬을 유지하면서 클라이언트별 활성화된 전문가 수를 변화시켜 클라이언트 측 적응성을 달성합니다. 부분 전문가 활성화로 인한 출력 크기 불일치 및 클라이언트 간 전문가 훈련 품질 불균형과 같은 문제를 경량 재조정 메커니즘 및 활성화 인식 집계 방식을 통해 해결합니다. 다양한 계산 환경에서의 실험 결과, FLAME은 기존 방법보다 성능이 우수함을 보여줍니다.

시사점, 한계점

시사점:
압축 없이 전체 글로벌 LoRA 행렬을 사용하여 기존 LoRA 기반 연합 학습의 성능 저하 문제를 해결합니다.
SMoE 아키텍처를 활용하여 클라이언트의 계산 자원에 따라 유연하게 적응할 수 있습니다.
경량 재조정 메커니즘과 활성화 인식 집계 방식을 통해 SMoE 기반 연합 학습의 고유한 문제점을 효과적으로 해결합니다.
다양한 환경에서 기존 방법보다 우수한 성능을 보여줍니다.
한계점:
SMoE 아키텍처의 복잡성으로 인해 모델의 크기와 훈련 복잡도가 증가할 수 있습니다.
제안된 경량 재조정 메커니즘과 활성화 인식 집계 방식의 최적화 여지가 존재할 수 있습니다.
다양한 데이터 분포 및 네트워크 환경에 대한 추가적인 실험이 필요할 수 있습니다.
👍