Cet article propose trois nouvelles méthodes de désapprentissage de nœuds pour supprimer efficacement les données d'apprentissage sensibles des modèles de réseaux de neurones graphes (GNN) et réduire les risques de confidentialité. Pour pallier les limites des méthodes existantes, notamment celles de l'architecture GNN, l'utilisation insuffisante de la topologie du graphe et les compromis entre performances et complexité, nous proposons trois méthodes : le remplacement d'étiquettes basé sur les classes, la probabilité a posteriori moyenne du voisin guidée par la topologie et le filtrage cohérent des nœuds voisins. Plus précisément, la probabilité a posteriori moyenne du voisin guidée par la topologie et le filtrage cohérent des nœuds voisins utilisent les caractéristiques topologiques du graphe pour réaliser un désapprentissage efficace des nœuds. Nous évaluons les performances de ces trois méthodes sur trois jeux de données de référence, en évaluant l'utilité du modèle, l'utilité du désapprentissage et l'efficacité du désapprentissage. Nous confirmons que ces méthodes surpassent les méthodes existantes. Cette recherche contribue à améliorer la confidentialité et la sécurité des modèles GNN et apporte des éclairages précieux sur le domaine du désapprentissage des nœuds.