Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CUDA-L2: Surpassing cuBLAS Performance for Matrix Multiplication through Reinforcement Learning

Created by
  • Haebom
Category
Empty

저자

Songqiao Su, Xiaofei Sun, Xiaoya Li, Albert Wang, Jiwei Li, Chris Shum

개요

본 논문은 대규모 언어 모델(LLM)과 강화 학습(RL)을 결합하여 Half-precision General Matrix Multiply (HGEMM) CUDA 커널을 자동으로 최적화하는 시스템인 CUDA-L2를 제안합니다. CUDA 실행 속도를 RL 보상으로 사용하여 CUDA-L2는 1,000개의 구성에서 HGEMM 커널을 자동으로 최적화합니다. CUDA-L2는 널리 사용되는 torch.matmul에서 최첨단 Nvidia의 독점 라이브러리인 cuBLAS, cuBLASLt에 이르기까지 주요 matmul 기본 모델을 체계적으로 능가합니다. 오프라인 모드에서는 torch.matmul보다 평균 +22.0%, cuBLAS (최적 레이아웃 구성 사용 시) 보다 +19.2%, cuBLASLt-heuristic보다 +16.8%, cuBLASLt-AutoTuning 모델보다 +11.4% 향상을 보입니다. 서버 모드에서는 속도 향상이 더욱 증가합니다.

시사점, 한계점

LLM-guided RL 자동화를 통해 HGEMM과 같이 성능이 중요한 커널도 개선될 수 있음을 보여줍니다.
인간에게는 비실용적인 규모의 구성 공간을 체계적으로 탐색하여 성능을 향상시킵니다.
오프라인 및 서버 모드 모두에서 기존 matmul baseline을 능가하는 성능을 보입니다.
구체적인 한계점은 논문에서 제시되지 않았습니다.
👍