Cet article présente une analyse de convergence complète des méthodes d'agrégation de modèles pour l'adaptation de bas rang (LoRA), une méthode émergente et efficace de réglage fin en apprentissage fédéré (FL). LoRA réduit la surcharge de communication en diminuant le nombre de paramètres apprenables, mais l'agrégation de modèles locaux mis à jour par LoRA depuis un serveur reste un problème crucial, mais peu étudié. Dans cet article, nous classons les méthodes d'agrégation existantes en deux types principaux : Somme-Produit (SP) et Produit-Somme (PS). Nous définissons formellement l'opérateur d'agrégation-diffusion (ABO) pour dériver des conditions de convergence faible et forte sous des hypothèses relâchées. De plus, nous proposons des conditions de convergence faible et forte qui garantissent respectivement la convergence des modèles locaux et globaux, et fournissent une compréhension raisonnée des différentes stratégies d'agrégation. Plus précisément, nous démontrons que si les méthodes d'agrégation SP et PS satisfont respectivement aux conditions de convergence faible et forte, elles diffèrent dans leur capacité à atteindre des taux de convergence optimaux. Nous validons nos résultats théoriques par des expériences approfondies sur des benchmarks standard.