대규모 언어 모델(LLM)을 시계열 예측에 적용할 때 원시 시계열에 대한 정보 향상에 실패하고 LLM 추론 능력이 활용되지 않는 문제를 해결하기 위해 STELLA(Semantic-Temporal Alignment with Language Abstractions) 프레임워크를 제안합니다. STELLA는 시계열을 추세, 계절성 및 잔차 구성 요소로 분해하고, 이러한 구성 요소의 고유한 동작 특징을 계층적 의미적 앵커(Corpus-level Semantic Prior (CSP) for global context, Fine-grained Behavioral Prompt (FBP) for instance-level patterns)로 변환합니다. STELLA는 이러한 앵커를 접두어-프롬프트로 사용하여 LLM이 고유한 역학을 모델링하도록 안내합니다. 8개의 벤치마크 데이터 세트에 대한 실험 결과 STELLA가 장단기 예측에서 최첨단 방법보다 우수하며 zero-shot 및 few-shot 설정에서 뛰어난 일반화 성능을 보였습니다.