본 논문은 연합 학습(Federated Learning, FL)에서 효율적인 미세 조정 방법으로 떠오른 Low-Rank Adaptation (LoRA)의 모델 집계 방법에 대한 통합적 수렴 분석을 제공합니다. LoRA는 학습 가능한 매개변수의 수를 줄여 통신 오버헤드를 감소시키지만, 서버에서 LoRA로 업데이트된 지역 모델을 어떻게 집계할지는 중요하면서도 충분히 연구되지 않은 문제입니다. 본 논문에서는 현재의 집계 방법을 Sum-Product (SP)와 Product-Sum (PS) 두 가지 주요 유형으로 분류하고, Aggregation-Broadcast Operator (ABO)를 공식적으로 정의하여 완화된 가정 하에 약한 수렴 조건과 강한 수렴 조건을 유도합니다. 또한 지역 모델과 글로벌 모델의 수렴을 각각 보장하는 약한 및 강한 수렴 조건을 제시하고, 다양한 집계 전략에 대한 원칙적인 이해를 제공합니다. 특히, SP와 PS 집계 방법이 각각 약한 수렴 조건과 강한 수렴 조건을 만족하지만 최적의 수렴 속도를 달성하는 능력은 다르다는 것을 증명합니다. 표준 벤치마크에 대한 광범위한 실험을 통해 이론적 결과를 검증합니다.