本論文では,Transformerベースの時系列予測モデルの効率と精度を改善するために,VARMAformerと呼ばれる新しいアーキテクチャを提案した。従来のクロスアテンションオンリー方式の効率性を維持しながら、VARMAモデルの利点を組み合わせて、局所的な時間依存性をより効果的に捉えます。コアイノベーションとしては、ARとMAパターンを明示的にモデル化するVARMA-inspired Feature Extractor(VFE)と、コンテキスト認識を向上させるVARMA-Enhanced Attention(VE-atten)メカニズムを提示します.さまざまなベンチマークデータセットで実験を通じて既存の最先端モデルを上回る性能を示すことで、古典的な統計的洞察を現代の深層学習フレームワークに統合することが時系列予測に大きな利点を提供することを実証しています。