본 논문은 대규모 그래프에서 GNN(Graph Neural Networks)의 분산 학습의 효율성을 높이기 위한 새로운 프레임워크인 RapidGNN을 제안합니다. 기존의 샘플링 기반 접근 방식은 계산 부하를 줄이지만 통신 오버헤드는 여전히 문제로 남아 있습니다. RapidGNN은 결정적 샘플링 기반 스케줄링을 통해 효율적인 캐시 구축 및 원격 특징의 프리페칭을 가능하게 합니다. 벤치마크 그래프 데이터셋에 대한 평가 결과, RapidGNN은 기존 방법에 비해 평균 2.46배에서 3.00배의 엔드투엔드 학습 처리량 향상을 보였으며, 원격 특징 가져오기를 9.70배에서 15.39배 이상 감소시켰습니다. 또한, 계산 유닛 수 증가에 따라 거의 선형적인 확장성을 달성했으며, CPU와 GPU 모두에서 기존 방법보다 에너지 효율성을 각각 44%와 32% 향상시켰습니다.