Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Autocomp: LLM-Driven Code Optimization for Tensor Accelerators

Created by
  • Haebom

저자

Charles Hong, Sahil Bhatia, Alvin Cheung, Yakun Sophia Shao

개요

본 논문은 텐서 가속기 프로그래밍의 어려움을 해결하기 위해, 대규모 언어 모델(LLM) 기반 자동화된 코드 최적화 접근 방식인 Autocomp를 제시합니다. Autocomp는 1) 계획 및 코드 생성 단계로 나뉜 구조화된 두 단계 프롬프트를 사용하고, 2) 간결하고 적응 가능한 최적화 메뉴를 통해 도메인 지식을 통합하며, 3) 각 검색 반복에서 하드웨어의 정확성 및 성능 메트릭을 피드백으로 통합하여 작동합니다. 다양한 워크로드와 가속기에서 Autocomp는 공급업체 제공 라이브러리보다 최대 5.6배(GEMM) 및 2.7배(합성곱) 빠른 코드를 생성하며, 전문가 수준의 수동 조정 코드보다 최대 1.4배(GEMM) , 1.1배(합성곱), 1.3배(미세 입자 선형 대수) 더 나은 성능을 보였습니다. 또한, 생성된 최적화 일정을 유사한 텐서 연산에 재사용하여 고정된 샘플 예산 하에서 최대 24%의 속도 향상을 달성했습니다.

시사점, 한계점

시사점:
LLM을 활용한 자동화된 텐서 가속기 코드 최적화의 효율성을 입증했습니다.
도메인 지식과 하드웨어 피드백을 통합하여 최적화 성능을 향상시켰습니다.
기존 라이브러리 및 전문가 수준 코드보다 뛰어난 성능을 달성했습니다.
생성된 최적화 일정의 재사용 가능성을 통해 효율성을 높였습니다.
한계점:
특정 텐서 가속기 및 워크로드에 대한 결과이므로 일반화 가능성에 대한 추가 연구가 필요합니다.
LLM의 성능에 의존적이며, LLM의 한계가 Autocomp의 성능에 영향을 미칠 수 있습니다.
최적화 메뉴의 설계 및 도메인 지식의 정확성이 성능에 중요한 영향을 미치므로, 이에 대한 추가적인 연구가 필요합니다.
다양한 하드웨어 및 소프트웨어 환경에 대한 확장성에 대한 추가 검증이 필요합니다.
👍