본 논문은 시계열 예측(TSF)에서 Transformer 기반 방법의 효율성을 높이는 새로운 방법을 제시한다. 기존 Transformer 기반 방법들은 모든 토큰 의존성을 동등하게 다루지만, 실제로는 예측 시나리오에 따라 토큰 의존성의 효과가 다르다는 점을 발견하였다. 따라서 논문은 효과적인 토큰 의존성을 정의하고(문제 1), 이를 학습하는 방법을 제안한다(문제 2). 논리적 관점에서 Transformer 기반 TSF 방법을 논리 프레임워크와 정렬하여, 원자 공식으로서 토큰을 보장하는 의존성을 효과적인 의존성으로 정의한다. 그리고 논리에서 원자 공식을 얻는 과정과 Transformer 방법의 학습 과정을 정렬하여, Attention Logic Regularization (Attn-L-Reg)이라는 플러그 앤 플레이 방식의 새로운 방법을 제안한다. Attn-L-Reg는 어텐션 맵을 스파스하게 만들어 효과적인 의존성을 더 적게 사용하도록 모델을 유도하여 예측 성능을 향상시킨다. 광범위한 실험과 이론적 분석을 통해 Attn-L-Reg의 효과를 확인하였다.