CoT-RAG es un novedoso marco de inferencia que mejora el rendimiento de tareas complejas para modelos de lenguaje a gran escala (LLM). Para abordar las limitaciones de la inferencia de Cadena de Pensamiento (CoT) existente, como la falta de fiabilidad de la inferencia y un menor rendimiento con indicaciones de código que con indicaciones de lenguaje natural, presentamos tres características de diseño clave. En primer lugar, construimos un CoT basado en un grafo de conocimiento, que mejora la fiabilidad de la inferencia al aprovechar el grafo de conocimiento para regular la generación de la cadena de inferencia del LLM. En segundo lugar, integramos un RAG de conocimiento con reconocimiento de casos, que recupera subcasos y subexplicaciones relevantes para proporcionar información aprendible al LLM. En tercer lugar, implementamos indicaciones de pseudoprogramas, que anima al LLM a ejecutar tareas de inferencia como pseudoprogramas, mejorando así el rigor lógico. Los resultados de la evaluación en nueve conjuntos de datos públicos a lo largo de tres tareas de inferencia demuestran mejoras significativas en la precisión, del 4,0 % al 44,3 %, con respecto a los métodos más avanzados. Las pruebas en cuatro conjuntos de datos específicos del dominio también demuestran una precisión superior y una ejecución eficiente, lo que resalta su practicidad y escalabilidad.