Sign In

STELLA: Guiding Large Language Models for Time Series Forecasting with Semantic Abstractions

Created by
  • Haebom
Category
Empty

저자

Junjie Fan, Hongye Zhao, Linduo Wei, Jiayu Rao, Guijia Li, Jiaxin Yuan, Wenqi Xu, Yong Qi

개요

대규모 언어 모델(LLM)을 시계열 예측에 적용할 때 원시 시계열에 대한 정보 향상에 실패하고 LLM 추론 능력이 활용되지 않는 문제를 해결하기 위해 STELLA(Semantic-Temporal Alignment with Language Abstractions) 프레임워크를 제안합니다. STELLA는 시계열을 추세, 계절성 및 잔차 구성 요소로 분해하고, 이러한 구성 요소의 고유한 동작 특징을 계층적 의미적 앵커(Corpus-level Semantic Prior (CSP) for global context, Fine-grained Behavioral Prompt (FBP) for instance-level patterns)로 변환합니다. STELLA는 이러한 앵커를 접두어-프롬프트로 사용하여 LLM이 고유한 역학을 모델링하도록 안내합니다. 8개의 벤치마크 데이터 세트에 대한 실험 결과 STELLA가 장단기 예측에서 최첨단 방법보다 우수하며 zero-shot 및 few-shot 설정에서 뛰어난 일반화 성능을 보였습니다.

시사점, 한계점

시사점:
LLM을 활용한 시계열 예측 성능 향상
동적 의미 추상화 메커니즘을 통한 시계열 분석
CSP 및 FBP를 활용한 글로벌 및 인스턴스 수준의 컨텍스트 제공
zero-shot 및 few-shot 설정에서의 일반화 성능 우수
한계점:
구체적인 한계점은 논문에서 명시적으로 언급되지 않음 (추후 연구를 통해 밝혀질 수 있음)
👍