Este artículo presenta un estudio sobre la solución del problema Limitations del Aprendizaje Federado (FL), método de aprendizaje que está cobrando relevancia considerando la privacidad en entornos distribuidos. Los métodos de aprendizaje federado existentes presentan una degradación del rendimiento debido a la heterogeneidad de los datos y la participación parcial de los clientes. En particular, la técnica de momentum se considera un método prometedor para superar la heterogeneidad estadística, pero los enfoques existentes no superan a FedAvg debido al problema de las actualizaciones sesgadas en los clientes recientemente muestreados. En este artículo, proponemos el Momentum Generalizado de Bola Pesada (GHBM) para resolver este problema y demostrar teóricamente su convergencia en un entorno con heterogeneidad infinita de datos y participación parcial cíclica. Además, presentamos una variante adaptativa y eficiente en comunicación de GHBM que presenta la misma complejidad de comunicación que FedAvg en un entorno donde los clientes pueden mantener su estado. Confirmamos los resultados teóricos mediante experimentos exhaustivos en tareas visuales y de lenguaje, y demostramos que GHBM mejora significativamente el rendimiento de vanguardia, especialmente en entornos a gran escala con alta heterogeneidad de datos y baja participación de los clientes.