Cet article présente une nouvelle approche permettant de généraliser à des tâches graphiques non vues, sans guide spécifique à la tâche, ce qui permet de surmonter les limites de l'espace d'étiquettes fixes des GNN et l'absence de biais inductif structurel dans les LLM. En exploitant les grands modèles de raisonnement (LRM), nous reformulons des tâches graphiques telles que la classification de nœuds, la prédiction de liens et la classification de graphes en problèmes d'inférence de texte. Pour ce faire, nous présentons un nouvel ensemble de données contenant des traces d'inférence détaillées pour chaque tâche et développons Graph-R1, un cadre d'apprentissage par renforcement qui guide l'inférence sur des graphes linéarisés à l'aide de modèles de reconsidération spécifiques à la tâche. Les résultats expérimentaux démontrent que Graph-R1 génère des prédictions interprétables et efficaces qui surpassent les modèles de référence de pointe dans des contextes « zero-shot ». Cette étude met en évidence le potentiel de l'apprentissage de graphes par inférence explicite et fournit de nouveaux éléments pour les recherches futures.