CoT-RAG est un nouveau framework d'inférence qui améliore les performances des tâches complexes pour les modèles de langage à grande échelle (MLH). Pour pallier les limites de l'inférence par chaîne de pensée (CoT) existante, telles que le manque de fiabilité de l'inférence et des performances d'inférence inférieures avec des invites de code par rapport à celles en langage naturel, nous présentons trois caractéristiques de conception clés. Premièrement, nous construisons une CoT basée sur un graphe de connaissances, ce qui améliore la fiabilité de l'inférence en exploitant le graphe de connaissances pour réguler la génération de la chaîne d'inférence du LLM. Deuxièmement, nous intégrons un RAG de connaissances apprenables, sensible aux cas, dans le graphe de connaissances, qui récupère les sous-cas et les sous-explications pertinents pour fournir des informations apprenables au LLM. Troisièmement, nous implémentons l'invite de pseudoprogrammes, qui encourage le LLM à exécuter des tâches d'inférence sous forme de pseudoprogrammes, améliorant ainsi la rigueur logique. Les résultats d'évaluation sur neuf jeux de données publics pour trois tâches d'inférence démontrent des améliorations significatives de la précision, de 4,0 % à 44,3 % par rapport aux méthodes de pointe. Les tests sur quatre ensembles de données spécifiques à un domaine démontrent également une précision supérieure et une exécution efficace, soulignant son caractère pratique et son évolutivité.