Cet article propose le multiscaling décomposable logsparse (LDM), un nouveau cadre permettant d'optimiser l'efficacité et l'efficience des prévisions de séries chronologiques à long terme. Pour résoudre le problème du surajustement des modèles existants aux longues séquences d'entrée, le LDM réduit la non-stationnarité en séparant les modèles à différentes échelles de la série chronologique, améliore l'efficacité grâce à des représentations d'entrée longues compressées et simplifie l'architecture grâce à une répartition claire des tâches. Les résultats expérimentaux démontrent que le LDM surpasse les modèles existants sur les benchmarks de prévision à long terme, tout en réduisant le temps d'apprentissage et les coûts mémoire.