Cet article propose le modèle ReinRAG (Reinforced Inference Augmentation Generation), qui vise à générer des instructions de sortie détaillées à partir d'informations patient limitées. ReinRAG fournit des indications sémantiques explicites au LLM en recherchant des chemins d'inférence dans le graphe de connaissances médicales. Pour combler les lacunes informationnelles, nous proposons une optimisation de la récupération par groupe (GRO) afin d'améliorer la qualité de la récupération grâce à des récompenses normalisées par groupe et d'encourager les sauts d'inférence pour une inférence approfondie dans le LLM. Les résultats expérimentaux sur des ensembles de données réelles démontrent que ReinRAG surpasse les méthodes existantes, tant en termes d'efficacité clinique que de génération de langage naturel. Une analyse plus approfondie démontre que ReinRAG comble les lacunes sémantiques liées à des données insuffisantes et garantit que les chemins d'inférence récupérés se concentrent sur les preuves clés et suivent des inférences cohérentes, évitant ainsi toute erreur d'interprétation clinique dans le LLM.