본 논문은 대규모 시계열 모델(LTSM)을 위한 포괄적인 툴박스이자 벤치마크인 LTSM-Bundle을 소개한다. LTSM은 대규모 언어 모델(LLM)의 성공에 영감을 받아 자기회귀 예측을 사용하는 범용 트랜스포머 기반 모델로, 시계열 예측(TSF)을 개선하는 데 사용된다. 하지만 이종 시계열 데이터에서 LTSM을 훈련하는 것은 데이터셋 간의 다양한 주파수, 차원 및 패턴으로 인해 독특한 과제를 제기한다. 본 연구는 전처리 기법, 모델 구성, 데이터셋 구성을 아우르는 LTSM 훈련 및 일반화 능력 향상을 위한 다양한 설계 선택을 모듈화하고 벤치마킹하여, 프롬프팅 전략, 토큰화 접근 방식, 훈련 패러다임, 기본 모델 선택, 데이터 양 및 데이터셋 다양성을 포함한 여러 차원에서 LTSM을 평가한다. 실험 결과, 연구에서 확인된 가장 효과적인 설계 선택의 조합이 벤치마크 데이터셋에서 최첨단 LTSM 및 기존 TSF 방법에 비해 우수한 제로샷 및 퓨샷 성능을 달성함을 보여준다.