본 논문은 Transformer 기반 시계열 예측의 어려움(효과적인 시퀀스 표현, 메모리 구성, 정확한 타겟 예측)을 해결하기 위해, 시계열 예측 파이프라인을 세 단계(입력 시퀀스 표현, 정보 추출 및 메모리 구성, 최종 타겟 예측)로 분해하여 각 단계별 최적의 아키텍처 구성을 연구합니다. 컨볼루션 레이어와 self-attention 메커니즘 등 다양한 모듈의 효과를 7개의 벤치마크 데이터셋을 통해 평가하여, 최첨단 예측 정확도와 향상된 계산 효율성(빠른 훈련 및 추론 시간, 감소된 파라미터 수)을 달성했습니다. 소스 코드는 깃허브에서 공개됩니다.