본 논문은 Transformer 기반 아키텍처가 자연어 처리 및 컴퓨터 비전 분야에서 성공을 거두었지만, 다변량 장기 예측에서는 간단한 선형 기준 모델에 비해 성능이 떨어지는 현상을 다룹니다. 기존 연구에서는 전통적인 어텐션 메커니즘이 이러한 한계의 주요 원인으로 지목되었습니다. 이에 본 논문에서는 Transformer 기반 시계열 예측에서 흔히 발생하는 엔트로피 붕괴 및 훈련 불안정성을 완화하기 위해 새로운 접근 방식인 LATST를 제시합니다. 다양한 실제 다변량 시계열 데이터셋에 대한 엄격한 평가를 통해 기존 최첨단 Transformer 모델을 능가하는 LATST의 성능을 입증하고, 특정 데이터셋에서는 일부 선형 모델보다 적은 매개변수로 경쟁력 있는 성능을 달성하여 효율성과 효과를 보여줍니다.