Dans cet article, nous proposons un cadre pour un déploiement évolutif et rentable de la génération augmentée de récupération basée sur les graphes (GraphRAG) en entreprise. L'adoption de GraphRAG existant a été limitée en raison de son coût de calcul élevé et de sa latence. Nous présentons donc deux innovations clés : (1) un pipeline de construction de graphes de connaissances basé sur les dépendances qui extrait les entités et les relations de textes non structurés en exploitant des bibliothèques NLP de qualité industrielle sans recourir à des modèles de langage à grande échelle (LLM), et (2) une stratégie de recherche de graphes légère qui combine l'identification hybride des nœuds de requête et une traversée efficace en une étape pour extraire des sous-graphes avec un rappel élevé et une faible latence. Les résultats expérimentaux obtenus avec l'ensemble de données SAP démontrent une amélioration des performances allant jusqu'à 15 % (LLM-as-Judge) et 4,35 % (RAGAS) par rapport aux modèles de base RAG existants, et atteignent 94 % des performances des graphes de connaissances basés sur LLM (61,87 % contre 65,83 %), tout en réduisant considérablement les coûts et en améliorant l'évolutivité. Cela démontre la faisabilité d’un système de raisonnement augmenté par récupération pratique, explicable et adaptable au domaine.