Sign In

LTSM-Bundle: A Toolbox and Benchmark on Large Language Models for Time Series Forecasting

Created by
  • Haebom
Category
Empty

저자

Yu-Neng Chuang, Songchen Li, Jiayi Yuan, Guanchu Wang, Kwei-Herng Lai, Songyuan Sui, Leisheng Yu, Sirui Ding, Chia-Yuan Chang, Qiaoyu Tan, Daochen Zha, Xia Hu

개요

본 논문은 대규모 시계열 모델(LTSM)을 위한 포괄적인 툴박스이자 벤치마크인 LTSM-Bundle을 소개한다. LTSM은 대규모 언어 모델(LLM)의 성공에 영감을 받아 자기회귀 예측을 사용하는 범용 트랜스포머 기반 모델로, 시계열 예측(TSF)을 개선하는 데 사용된다. 하지만 이종 시계열 데이터에서 LTSM을 훈련하는 것은 데이터셋 간의 다양한 주파수, 차원 및 패턴으로 인해 독특한 과제를 제기한다. 본 연구는 전처리 기법, 모델 구성, 데이터셋 구성을 아우르는 LTSM 훈련 및 일반화 능력 향상을 위한 다양한 설계 선택을 모듈화하고 벤치마킹하여, 프롬프팅 전략, 토큰화 접근 방식, 훈련 패러다임, 기본 모델 선택, 데이터 양 및 데이터셋 다양성을 포함한 여러 차원에서 LTSM을 평가한다. 실험 결과, 연구에서 확인된 가장 효과적인 설계 선택의 조합이 벤치마크 데이터셋에서 최첨단 LTSM 및 기존 TSF 방법에 비해 우수한 제로샷 및 퓨샷 성능을 달성함을 보여준다.

시사점, 한계점

시사점:
LTSM 훈련 및 일반화 성능 향상을 위한 다양한 설계 선택(전처리, 모델 구성, 데이터셋 구성 등)을 종합적으로 평가하고 벤치마킹하는 LTSM-Bundle을 제공한다.
다양한 설계 선택을 조합하여 기존 방법보다 우수한 제로샷 및 퓨샷 성능을 달성하는 것을 실험적으로 증명한다.
LTSM 기반 시계열 예측 연구에 대한 표준화된 벤치마크 및 툴박스를 제공하여 연구의 재현성과 비교 가능성을 높인다.
한계점:
LTSM-Bundle이 특정 유형의 시계열 데이터에 편향될 가능성이 있다. 다양한 종류의 시계열 데이터에 대한 추가적인 실험이 필요하다.
본 연구에서 사용된 설계 선택의 최적 조합이 모든 시계열 예측 문제에 적용 가능한지는 추가적인 검증이 필요하다.
LTSM의 계산 비용 및 메모리 요구사항에 대한 분석이 부족하다.
👍