본 논문은 저랭크 적응 기법(예: LoRA)의 조합적 특성을 활용하여 여러 모델을 통합하는 새로운 모델 병합 기법인 LoRM을 제안합니다. 기존 LoRA 모듈의 단순 평균화가 각 모듈의 기능을 대부분 통합하는 단일 모델을 생성하는 것에 착안하여, 본 논문에서는 병합된 모델이 모든 학습된 모듈의 응답과 일치하도록 하는 것을 목표로 합니다. 이 목표를 폐쇄형으로 해결하면 미지수 A와 B를 갖는 불확정 시스템이 되므로, 무한히 많은 폐쇄형 해가 존재합니다. 이 문제를 해결하기 위해 LoRM은 한 번에 하나의 LoRA 매트릭스를 훈련하는 교대 최적화 전략을 도입하여 각 미지수를 개별적으로 풀고 고유한 해를 찾습니다. 본 논문에서는 제안된 방법론을 연합 클래스 증분 학습(FCIL)에 적용하여 클라이언트 간과 작업 간의 모델 응답 정렬을 보장하며, 다양한 FCIL 시나리오에서 최첨단 성능을 보여줍니다. 실험 재현 코드는 github.com/aimagelab/fed-mammoth에서 이용 가능합니다.