본 논문은 계산 효율적이고 구현이 용이하며 대규모 언어 모델, 다중 모달 모델, 확산 모델에 쉽게 적용 가능한 부분 공간 기반 저랭크 적응(LoRA) 방법인 MoSLoRA를 제안합니다. LoRA의 가중치를 두 개의 부분 공간으로 분해하고, 이를 단순히 혼합하는 것만으로도 성능 향상을 얻을 수 있음을 보입니다. 이 현상을 미세한 부분 공간 관점에서 재검토하여, 이러한 수정이 고정된 믹서를 사용하여 부분 공간을 융합하는 것과 동일함을 보입니다. 더욱 유연성을 위해, 원래 LoRA 가중치와 함께 믹서를 공동으로 학습하며, 이 방법을 Mixture-of-Subspaces LoRA (MoSLoRA)라고 합니다. MoSLoRA는 상식 추론, 시각적 지시 조정, 주제 중심 텍스트-이미지 생성 등 다양한 모달리티의 작업에서 LoRA를 능가하는 성능을 보이며, 효과성과 강건성을 입증합니다. 코드는 https://github.com/wutaiqiang/MoSLoRA 에서 확인할 수 있습니다.