Cet article souligne que l'efficacité des techniques d'apprentissage sophistiquées et des architectures de modèles récemment publiées dans les réseaux de neurones graphes (GNN) pour la prédiction de liens peut être exagérée par rapport aux anciens modèles de référence. Pour y remédier, nous explorons systématiquement les GAE en appliquant des techniques indépendantes du modèle, utilisées dans les méthodes de pointe, aux autoencodeurs de graphes (GAE) et aux hyperparamètres de réglage. Nous constatons que les GAE bien réglés offrent des performances similaires à celles des modèles sophistiqués récents, tout en offrant une efficacité de calcul supérieure. Plus précisément, nous obtenons des gains de performance significatifs sur les jeux de données contenant des informations structurelles dominantes et des données de caractéristiques limitées, atteignant un score Hits@100 de 78,41 % sur le jeu de données ogbl-ppa. Nous analysons également l'impact de diverses techniques afin d'élucider les raisons de leur succès et de suggérer des orientations futures. Cette étude souligne la nécessité de mettre à jour les modèles de référence afin d'évaluer plus précisément les progrès des GNN pour la prédiction de liens.