Cet article présente une nouvelle méthode pour pallier les limites des entrées de longueur fixe dans la prévision des séries temporelles à long terme. Les modèles d'apprentissage profond existants souffrent de surapprentissage à mesure que la longueur des entrées augmente, ce qui entraîne une baisse rapide de la précision. Ce phénomène est attribué à la combinaison de modèles multi-échelles dans les séries temporelles et à l'échelle de focalisation fixe du modèle. Cette étude révèle que les modèles apparaissant à différentes échelles dans les séries temporelles reflètent des caractéristiques multi-cycles, chaque échelle correspondant à une longueur de cycle spécifique. De plus, elle révèle que la taille des jetons détermine le comportement du modèle, déterminant les échelles sur lesquelles il se concentre et la taille du contexte qu'il peut prendre en charge. Par conséquent, nous proposons une nouvelle méthode qui sépare les modèles temporels multi-échelles dans les séries temporelles et modélise chaque modèle comme une taille de jeton représentant sa longueur de cycle correspondante. L'introduction du module de décomposition des séries temporelles (MPSD) et du réseau neuronal de reconnaissance de motifs multi-jetons (MTPR) nous permet de traiter les entrées jusqu'à 10 fois plus longtemps, améliorant les performances jusqu'à 38 %, tout en réduisant la complexité de calcul de 0,22 fois et en améliorant l'interprétabilité.