Bài báo này đề xuất RapidGNN, một khuôn khổ mới để cải thiện hiệu quả học tập phân tán của Mạng nơ-ron đồ thị (GNN) trên các đồ thị quy mô lớn. Trong khi các phương pháp tiếp cận dựa trên lấy mẫu hiện có làm giảm tải tính toán, chi phí truyền thông vẫn là một vấn đề. RapidGNN cho phép xây dựng bộ nhớ đệm hiệu quả và tìm nạp trước các tính năng từ xa thông qua lập lịch dựa trên lấy mẫu xác định. Kết quả đánh giá trên các tập dữ liệu đồ thị chuẩn cho thấy RapidGNN cải thiện thông lượng đào tạo đầu cuối trung bình từ 2,46 lần đến 3,00 lần so với các phương pháp hiện có và giảm việc tìm nạp tính năng từ xa từ 9,70 lần đến 15,39 lần. Hơn nữa, nó đạt được khả năng mở rộng gần tuyến tính với các đơn vị tính toán ngày càng tăng và cải thiện hiệu suất năng lượng lần lượt là 44% và 32% so với các phương pháp hiện có trên cả CPU và GPU.