본 논문은 장기 시계열 예측에서 효율성과 효과성을 동시에 달성하기 위한 새로운 프레임워크인 Logsparse Decomposable Multiscaling (LDM)을 제안합니다. 기존 모델들이 긴 입력 시퀀스에 과적합되는 문제를 해결하기 위해, LDM은 시계열 내 다양한 스케일의 패턴을 분리하여 비정상성을 줄이고, 압축된 긴 입력 표현을 통해 효율성을 높이며, 명확한 작업 할당을 통해 아키텍처를 단순화합니다. 실험 결과, LDM은 장기 예측 벤치마크에서 기존 모델들을 능가하며, 학습 시간 및 메모리 비용까지 절감하는 것으로 나타났습니다.