Cet article propose la pensée inversée guidée par l'ontologie (ORT), un nouveau cadre pour améliorer les performances des réponses aux questions de graphes de connaissances (QQC) sur les modèles de langage à grande échelle (MLH). Pour résoudre le problème que posent les méthodes QQC existantes, qui reposent sur la correspondance entre vecteurs d'entités et peinent à répondre aux questions nécessitant une inférence en plusieurs étapes, nous proposons ORT, qui construit un chemin d'inférence d'un objectif à une condition, inspiré du raisonnement inverse humain. ORT se compose de trois étapes : extraire les étiquettes d'objectif et de condition à l'aide des LMH, générer un chemin d'inférence d'étiquettes basé sur l'ontologie du graphe de connaissances, et récupérer les connaissances à l'aide de ce chemin d'inférence d'étiquettes. Les résultats expérimentaux sur les jeux de données WebQSP et CWQ démontrent qu'ORT atteint des performances de pointe et améliore considérablement les capacités QQC des LMH.