Cet article aborde le défi principal du décalage de distribution induit par la taille dans les réseaux neuronaux graphes (GNN) et son impact sur la généralisation des GNN à des graphes plus grands. Les recherches existantes ont formulé des hypothèses divergentes sur le décalage de distribution, conduisant à des conclusions contradictoires quant à la généralisabilité des GNN. Cet article adopte une approche basée sur les données pour identifier et caractériser les types de décalage de distribution induits par la taille et explore leur impact sur les performances des GNN à partir d'une perspective largement inexplorée du décalage spectral. En exploitant la variance substantielle des tailles de graphes dans des ensembles de données biologiques réels, nous analysons les graphes biologiques et constatons que les différences spectrales induites par les modèles de sous-graphes (par exemple, la longueur moyenne du cycle) sont plus importantes et fortement corrélées aux performances des GNN sur des graphes invisibles. Sur la base de ces connaissances, nous proposons trois stratégies indépendantes du modèle pour améliorer la reconnaissance par les GNN des modèles de sous-graphes importants, et nous constatons que l'attention intensive à la taille est l'approche la plus efficace. Grâce à des expériences approfondies utilisant six architectures GNN et sept stratégies indépendantes du modèle sur cinq ensembles de données, nous démontrons que la stratégie d'attention intensive en taille proposée améliore considérablement la classification des graphes sur des graphes de test qui sont 2 à 10 fois plus grands que le graphe d'entraînement, améliorant les scores F1 jusqu'à 8 % par rapport aux lignes de base solides.