Cet article traite de la génération augmentée de recherche (RAG), devenue un paradigme fondamental pour relever les défis rencontrés par les modèles linguistiques à grande échelle (LLM) dans le traitement de l'information en temps réel et des problèmes spécifiques à un domaine. Les systèmes RAG existants s'appuient principalement sur les capacités d'apprentissage en contexte (ICL) du LLM lui-même, mais les recherches approfondies sur les capacités spécifiques requises pour les modèles de génération RAG font défaut, ce qui entraîne une qualité de document inégale et des systèmes de recherche défaillants. Même les recherches limitées sur l'optimisation des modèles de génération RAG manquent d'une approche granulaire des tâches RAG ni d'une compréhension approfondie du processus de la chaîne de pensée. Pour y remédier, cet article propose que les modèles RAG possèdent trois capacités hiérarchisées progressivement : (1) filtrage : la capacité de sélectionner les informations pertinentes ; (2) combinaison : la capacité de combiner des informations sémantiques entre les paragraphes ; et (3) inférence spécifique au RAG : la capacité de traiter ultérieurement les connaissances externes à partir des connaissances internes. Nous présentons donc la génération augmentée de récupération ajustée dirigée par la pensée hiérarchique (HIRAG), une nouvelle méthode de réglage fin dirigée par la RAG qui intègre une stratégie de « réflexion avant réponse ». Cette méthode s'appuie sur une chaîne de pensée progressive en plusieurs étapes pour améliorer la testabilité du modèle à livre ouvert. Les résultats expérimentaux montrent que la stratégie d'entraînement HIRAG améliore significativement les performances du modèle sur des jeux de données tels que RGB, PopQA, MuSiQue, HotpotQA et PubmedQA.