본 논문은 대규모 언어 모델의 발전으로 인해 급증하는 GPU 컴퓨팅 자원 수요에 대응하여 자동화된 CUDA 최적화 전략에 대한 필요성을 제기한다. 기존 최첨단 모델들이 CUDA 속도 향상에 낮은 성공률을 보이는 것과 달리, 본 논문에서는 강화 학습 기반의 자동화된 CUDA 최적화 프레임워크인 CUDA-L1을 제안한다. CUDA-L1은 NVIDIA A100에서 학습되었으며, KernelBench의 250개 CUDA 커널에서 평균 x17.7의 속도 향상을 달성했고 최대 x449의 속도 향상을 기록했다. 또한, A100에 특화되어 학습되었음에도 불구하고 H100, RTX 3090, L40, H800, H20 등 다양한 GPU 아키텍처에서도 우수한 이전성을 보였다. CUDA-L1은 다양한 CUDA 최적화 기법을 발견하고 전략적으로 결합하여 최적의 성능을 달성하며, CUDA 최적화의 기본 원리를 발견하고 비효율적인 최적화를 거부하는 등의 특징을 보인다. 본 연구는 강화 학습을 통해 초기 성능이 저조한 LLM을 효과적인 CUDA 최적화 모델로 변환할 수 있음을 보여주며, 자동화된 CUDA 연산 최적화의 가능성을 제시한다.