Este artículo propone el Pensamiento Inverso Guiado por Ontologías (ORT), un novedoso marco para mejorar el rendimiento del Análisis de Preguntas y Respuestas de Grafos de Conocimiento (KGQA) en modelos de lenguaje a gran escala (LLM). Para abordar el problema de que los métodos KGQA existentes se basan en la correspondencia de vectores de entidades y tienen dificultades para responder preguntas que requieren inferencia de varios pasos, proponemos ORT, que construye una ruta de inferencia desde un objetivo hasta una condición, inspirada en el razonamiento inverso humano. ORT consta de tres pasos: extraer las etiquetas de objetivo y condición mediante LLM, generar una ruta de inferencia de etiquetas basada en la ontología de grafos de conocimiento y recuperar el conocimiento mediante dicha ruta. Los resultados experimentales en los conjuntos de datos WebQSP y CWQ demuestran que ORT alcanza un rendimiento de vanguardia y mejora significativamente la capacidad KGQA de los LLM.