本稿では、大規模グラフにおけるGNN(Graph Neural Networks)の分散学習の効率を向上させるための新しいフレームワークであるRapidGNNを提案します。従来のサンプリングベースのアプローチは計算負荷を軽減しますが、通信のオーバーヘッドは依然として問題のままです。 RapidGNNは、決定的なサンプリングベースのスケジューリングにより、効率的なキャッシュ構築とリモート機能のプリフェッチを可能にします。ベンチマークグラフデータセットの評価の結果、RapidGNNは従来の方法に比べて平均2.46倍から3.00倍のエンドツーエンドの学習スループット向上を示し、リモートフィーチャーのインポートを9.70倍から15.39倍以上減少させました。また、計算ユニット数の増加に伴いほぼ線形的なスケーラビリティを達成し、CPUとGPUの両方で、従来の方法よりもエネルギー効率をそれぞれ44%と32%向上させました。