Small but Mighty: Enhancing Time Series Forecasting with Lightweight LLMs
Created by
Haebom
Category
Empty
저자
Haoran Fan, Bin Li, Yixuan Weng, Shoujun Zhou
개요
본 논문은 시간 순서 데이터 예측에서 효율성과 정확성을 높이기 위해 30억 개 미만의 매개변수를 가진 소형 언어 모델(SLM)을 활용한 SMETimes를 제시합니다. 기존의 대규모 언어 모델(LLM) 기반 접근 방식의 비효율적인 매개변수 활용, 모달 불일치, 실시간 전문가 지식 통합의 어려움 등의 한계를 극복하기 위해, 통계적 프롬프팅 메커니즘, 적응적 융합 임베딩 아키텍처, 동적 전문가 혼합 프레임워크라는 세 가지 핵심 혁신을 제시합니다. 7개의 벤치마크 데이터셋에 대한 광범위한 평가 결과, 30억 매개변수 SLM이 5개 주요 데이터셋에서 최첨단 성능을 달성했으며, 70억 매개변수 LLM 기준 모델보다 3.8배 빠른 훈련 속도와 5.2배 낮은 메모리 소비량을 보였습니다. 또한 기존 LLM보다 12.3% 낮은 MSE를 달성하여 향상된 학습 능력을 보였습니다. 실험 결과, 통계적 프롬프팅과 교차 모달 융합 모듈이 장기 예측 작업에서 각각 15.7%와 18.2%의 오류 감소에 기여함을 확인했습니다. 본 연구는 SLM을 자원 집약적인 LLM의 실용적인 대안으로 제시하며, 효율성과 정확성 간의 절충 관계를 재정의합니다. 코드와 모델은 https://github.com/xiyan1234567/SMETimes 에서 확인할 수 있습니다.