본 논문에서는 Transformer 기반 시계열 예측 모델의 효율성과 정확성을 향상시키기 위해 VARMAformer라는 새로운 아키텍처를 제안합니다. 기존의 Cross-Attention-only 방식의 효율성을 유지하면서, VARMA 모델의 장점을 결합하여 국소적인 시간적 의존성을 더욱 효과적으로 포착합니다. 핵심 혁신으로는, AR과 MA 패턴을 명시적으로 모델링하는 VARMA-inspired Feature Extractor (VFE)와 문맥 인식을 향상시키는 VARMA-Enhanced Attention (VE-atten) 메커니즘을 제시합니다. 다양한 벤치마크 데이터셋에서 실험을 통해 기존 최첨단 모델들을 능가하는 성능을 보임으로써, 고전적인 통계적 통찰력을 현대 심층 학습 프레임워크에 통합하는 것이 시계열 예측에 상당한 이점을 제공함을 입증합니다.