Este artículo presenta un análisis de convergencia exhaustivo de los métodos de agregación de modelos para la Adaptación de Bajo Rango (LoRA), un método emergente y eficiente de ajuste fino en el Aprendizaje Federado (FL). LoRA reduce la sobrecarga de comunicación al reducir el número de parámetros aprendibles, pero cómo agregar modelos locales actualizados por LoRA desde un servidor sigue siendo un problema crítico aunque poco estudiado. En este artículo, categorizamos los métodos de agregación existentes en dos tipos principales: Suma-Producto (SP) y Producto-Suma (PS). Definimos formalmente el Operador de Agregación-Difusión (ABO) para derivar condiciones de convergencia débil y fuerte bajo supuestos relajados. Además, proponemos condiciones de convergencia débil y fuerte que garantizan la convergencia de los modelos locales y globales, respectivamente, y proporcionamos una comprensión de principios de varias estrategias de agregación. Específicamente, demostramos que si bien los métodos de agregación SP y PS satisfacen las condiciones de convergencia débil y fuerte, respectivamente, difieren en su capacidad para lograr tasas de convergencia óptimas. Validamos nuestros resultados teóricos mediante experimentos extensos en puntos de referencia estándar.