Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Scalable Synthesis of distributed LLM workloads through Symbolic Tensor Graphs

Created by
  • Haebom
Category
Empty

저자

Changhai Man, Joongun Park, Hanjiang Wu, Huan Xu, Srinivas Sridharan, Tushar Krishna

개요

본 논문은 대규모 언어 모델(LLM)의 AI 훈련 및 추론 시스템 성능 최적화를 위해 분산 워크로드 실행을 모델링하는 확장 가능하고 표현력 있는 메커니즘을 제안한다. STAGE(Symbolic Tensor grAph GEnerator)라는 프레임워크를 통해 정확한 LLM 워크로드 실행 추적을 합성한다. STAGE는 다양한 병렬화 전략을 지원하며, LLM 아키텍처 및 시스템 구성을 체계적으로 탐색할 수 있게 해준다. 최대 32K GPU에 걸쳐 고충실도 LLM 추적을 합성하며, 연산, 메모리, 통신 측면에서 텐서 수준의 정확도를 유지한다.

시사점, 한계점

대규모 AI 훈련 및 추론 시스템의 성능 최적화를 위한 실행 추적 모델링 프레임워크 제공.
다양한 LLM 아키텍처 및 시스템 구성 탐색 지원.
최대 32K GPU 환경에서 고충실도 실행 추적 합성 가능.
클라우드 환경 접근의 한계를 극복하고, 미래 시스템 구성을 연구하기 위한 유연성 제공.
대규모 인프라 접근 제한 없이 시스템 수준 최적화 및 설계 공간 탐색 가능.
공개적으로 사용 가능하여 분산 머신 러닝 시스템 연구에 기여.
👍