[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

PGT-I: Scaling Spatiotemporal GNNs with Memory-Efficient Distributed Training

Created by
  • Haebom

作者

Seth Ockerman, Amal Gueroudji, Tanwi Mallick, Yixuan He, Line Pouchard, Robert Ross, Shivaram Venkataraman

概要

大規模空間時間データ依存性モデリングに有効な空間時間グラフニューラルネットワーク(ST − GNN)は、メモリの制約のために主に小規模データセットにのみ適用されてきた。本論文では、大規模作業量のスケーラビリティ研究に基づいて、分散データ並列学習と2つの新しい戦略(インデックス配置と分散インデックス配置)を統合したPyTorch Geometric Temporalの拡張版であるPyTorch Geometric Temporal Index(PGT-I)を提示する。インデックス技術は空間時間構造を利用して実行時に動的にスナップショットを作成し、メモリオーバーヘッドを大幅に削減し、分散インデックス配置は複数のGPUにわたって拡張可能な処理を可能にします。提示された手法により、グラフ分割なしでPeMSデータセット全体でST-GNNを初めて学習でき、最大89%のピークメモリ使用量削減と128個のGPUを使用して、標準DDPに対して最大11.78倍の速度向上を達成した。

Takeaways、Limitations

Takeaways:
大規模空間時間データセットのST-GNN学習を可能にする新しいフレームワークPGT-Iの提示。
インデックス配置と分散インデックス配置戦略によるメモリ効率と学習速度の向上
PeMSデータセットを活用した実験により性能向上を検証。
Limitations:
PGT-IはPyTorch Geometric Temporalに依存しており、他のフレームワークとの互換性は不明です。
提示された方法の効果はPeMSデータセットに限定することができ、他の種類の空間時間データセットの一般化の可能性はさらなる研究を必要とする。
分散学習環境への依存性が高い。
👍