Sign In

Closed-form merging of parameter-efficient modules for Federated Continual Learning

Created by
  • Haebom
Category
Empty

저자

Riccardo Salami, Pietro Buzzega, Matteo Mosconi, Jacopo Bonato, Luigi Sabetta, Simone Calderara

개요

본 논문은 저랭크 적응 기법(예: LoRA)의 조합적 특성을 활용하여 여러 모델을 통합하는 새로운 모델 병합 기법인 LoRM을 제안합니다. 기존 LoRA 모듈의 단순 평균화가 각 모듈의 기능을 대부분 통합하는 단일 모델을 생성하는 것에 착안하여, 본 논문에서는 병합된 모델이 모든 학습된 모듈의 응답과 일치하도록 하는 것을 목표로 합니다. 이 목표를 폐쇄형으로 해결하면 미지수 A와 B를 갖는 불확정 시스템이 되므로, 무한히 많은 폐쇄형 해가 존재합니다. 이 문제를 해결하기 위해 LoRM은 한 번에 하나의 LoRA 매트릭스를 훈련하는 교대 최적화 전략을 도입하여 각 미지수를 개별적으로 풀고 고유한 해를 찾습니다. 본 논문에서는 제안된 방법론을 연합 클래스 증분 학습(FCIL)에 적용하여 클라이언트 간과 작업 간의 모델 응답 정렬을 보장하며, 다양한 FCIL 시나리오에서 최첨단 성능을 보여줍니다. 실험 재현 코드는 github.com/aimagelab/fed-mammoth에서 이용 가능합니다.

시사점, 한계점

시사점:
LoRA 기반의 효율적인 모델 병합 기법 LoRM 제시
연합 클래스 증분 학습(FCIL)에서 최첨단 성능 달성
모델 응답의 클라이언트 간 및 작업 간 정렬 보장
실험 재현을 위한 코드 공개
한계점:
LoRM의 교대 최적화 전략의 수렴 속도 및 최적성에 대한 추가적인 분석 필요
다양한 모델 아키텍처 및 데이터셋에 대한 일반화 성능 평가 필요
LoRM이 다른 모델 병합 기법에 비해 얼마나 효율적인지에 대한 비교 분석 필요
👍