Sign In

An Efficient Sparse Kernel Generator for O(3)-Equivariant Deep Networks

Created by
  • Haebom
Category
Empty

저자

Vivek Bharadwaj, Austin Glover, Aydin Buluc, James Demmel

개요

회전 등변 그래프 신경망(Rotation equivariant graph neural networks)은 공간 심층 학습 작업에서 최첨단 성능을 제공하며, 특히 원자간 퍼텐셜 계산에서 기존 방법보다 높은 데이터 효율과 상당히 감소된 추론 시간을 보입니다. 이러한 모델의 핵심은 두 개의 조밀한 특징 벡터를 고도로 구조화된 희소 텐서와 수축하여 조밀한 출력 벡터를 생성하는 Clebsch-Gordon (CG) 텐서 곱입니다. 본 논문은 CG 텐서 곱에 대한 GPU 희소 커널 생성기를 제시하여 기존 최고의 오픈소스 및 클로즈드소스 구현보다 상당한 속도 향상을 제공합니다. 모델 컴파일 시 정적 분석을 통해 GPU 공유 메모리를 신중하게 관리하고, 전역 메모리에 대한 읽기 및 쓰기를 최소화하여 고성능을 달성합니다. CG 텐서 곱을 후속 그래프 합성곱과 융합하여 중간 저장소와 전역 메모리 트래픽을 줄입니다. 또한 CG 텐서 곱의 기울기와 원자간 힘을 예측하는 데 필요한 고차 편도함수에 대한 새로운 항등식에 대한 최적화된 커널을 제공합니다.

시사점, 한계점

시사점:
GPU 희소 커널 생성기를 통해 CG 텐서 곱 연산 속도를 크게 향상시켰습니다. (NVIDIA cuEquivariance 대비 최대 4.5배(forward pass), 3배(backward pass) 속도 향상, e3nn 패키지 대비 10배 이상 속도 향상)
MACE 화학 기초 모델의 추론 시간을 최대 5.3배 단축했습니다.
모델 컴파일 시 정적 분석을 통한 GPU 공유 메모리 관리 및 전역 메모리 접근 최소화를 통해 효율성을 높였습니다.
CG 텐서 곱과 그래프 합성곱의 융합을 통해 중간 저장 및 메모리 트래픽을 감소시켰습니다.
한계점:
제시된 방법의 성능 향상은 특정 하드웨어(GPU) 환경에 의존적일 수 있습니다.
다른 유형의 그래프 신경망이나 작업에 대한 일반화 가능성에 대한 추가적인 연구가 필요합니다.
고차 편도함수에 대한 새로운 항등식의 일반적인 적용성 및 제한점에 대한 추가적인 분석이 필요합니다.
👍