Dans cet article, nous montrons que, bien que les modèles de prédiction de liens (LP) de pointe affichent d'excellentes performances sur des jeux de données de référence, en situation réelle, les distributions des échantillons d'entraînement, de validation et de test ne représentent pas l'intégralité de la distribution des jeux de données. Alors que les travaux précédents se concentraient principalement sur les tâches au niveau des nœuds et des graphes, cet article aborde la question du décalage des jeux de données pour les tâches au niveau des liens. Pour résoudre ce problème, nous proposons une nouvelle stratégie de fractionnement, LPShift, qui induit un décalage distributionnel contrôlé en exploitant des caractéristiques structurelles. Nous évaluons expérimentalement des modèles LP de pointe sur 16 jeux de données mutés par LPShift, démontrant des améliorations spectaculaires des performances du modèle, et démontrons par des expériences supplémentaires que la structure du graphe affecte significativement le succès des méthodes de généralisation existantes.