Cet article propose RapidGNN, un nouveau framework pour améliorer l'efficacité de l'apprentissage distribué des réseaux de neurones graphes (GNN) sur des graphes de grande taille. Si les approches existantes basées sur l'échantillonnage réduisent la charge de calcul, la surcharge de communication reste problématique. RapidGNN permet une construction efficace du cache et une prélecture des fonctionnalités à distance grâce à une planification déterministe basée sur l'échantillonnage. Les résultats d'évaluation sur des jeux de données de graphes de référence montrent que RapidGNN améliore le débit d'apprentissage de bout en bout de 2,46 à 3,00 fois en moyenne par rapport aux méthodes existantes, et réduit la récupération des fonctionnalités à distance de 9,70 à 15,39 fois. De plus, il atteint une évolutivité quasi-linéaire avec l'augmentation du nombre d'unités de calcul et améliore l'efficacité énergétique de 44 % et 32 % respectivement par rapport aux méthodes existantes sur CPU et GPU.