Este artículo propone RapidGNN, un nuevo marco para mejorar la eficiencia del aprendizaje distribuido de redes neuronales de grafos (GNN) en grafos a gran escala. Si bien los enfoques existentes basados en muestreo reducen la carga computacional, la sobrecarga de comunicación sigue siendo un problema. RapidGNN permite la construcción eficiente de cachés y la precarga remota de características mediante una programación determinista basada en muestreo. Los resultados de la evaluación en conjuntos de datos de grafos de referencia muestran que RapidGNN mejora el rendimiento del entrenamiento de extremo a extremo en un promedio de 2,46x a 3,00x en comparación con los métodos existentes, y reduce la carga remota de características en 9,70x a 15,39x. Además, logra una escalabilidad casi lineal con el aumento de unidades de cómputo y mejora la eficiencia energética en un 44% y un 32%, respectivamente, en comparación con los métodos existentes tanto en CPU como en GPU.