본 논문은 연합 학습(FL)의 통신 효율성과 성능 저하 문제를 해결하기 위해, 저랭크(low-rank) 업데이트를 활용하는 방안을 제시한다. 구체적으로, 클라이언트의 손실 기울기가 서버보다 더 높은 랭크 구조를 가지며, 클라이언트의 기울기에 대한 저랭크 근사가 더 높은 유사성을 가진다는 점을 이론적으로 분석했다. 이를 바탕으로, 클라이언트 측 최적화를 저랭크 부분 공간으로 제한하는 FedLoRU 프레임워크를 제안한다. FedLoRU는 저랭크 클라이언트 측 업데이트를 적용하고, 이를 누적하여 더 높은 랭크의 모델을 형성한다. 이 알고리즘의 수렴성을 증명했으며, 수렴 속도는 FedAvg와 동일하다. 또한, FedLoRU의 변형을 통해 통계적 및 모델 이질성이 있는 환경에도 적응할 수 있다. 실험 결과, FedLoRU는 전체 랭크 알고리즘과 유사한 성능을 보이며, 다양한 클라이언트 환경에서도 강건함을 보인다.