본 논문은 대규모 언어 모델(LLM)의 AI 훈련 및 추론 시스템 성능 최적화를 위해 분산 워크로드 실행을 모델링하는 확장 가능하고 표현력 있는 메커니즘을 제시합니다. STAGE (Symbolic Tensor grAph GEnerator)라는 프레임워크를 도입하여 LLM 워크로드를 정확하게 모델링하는 고품질 실행 트레이스를 합성합니다. STAGE는 다양한 병렬화 전략을 지원하며, 32K GPU 이상을 포함하는 고품질 LLM 트레이스를 합성하여 계산, 메모리 및 통신 측면에서 텐서 수준의 정확도를 유지합니다.