Este artículo analiza la Generación Aumentada por Recuperación (RAG), que se ha convertido en un paradigma fundamental para abordar los desafíos que enfrentan los modelos de lenguaje a gran escala (LLM) en el procesamiento de información en tiempo real y problemas específicos del dominio. Los sistemas RAG existentes se basan principalmente en las capacidades de aprendizaje en contexto (ICL) del propio LLM, pero falta investigación en profundidad sobre las capacidades específicas requeridas para los modelos de generación RAG, lo que conduce a una calidad inconsistente de los documentos y sistemas de recuperación defectuosos. Incluso la limitada investigación sobre el ajuste fino de los modelos de generación RAG carece de un enfoque granular en las tareas RAG o una comprensión profunda del proceso de la cadena de pensamiento. Para abordar esto, este artículo propone que los modelos RAG deben poseer tres capacidades progresivamente jerárquicas: (1) filtrado: la capacidad de seleccionar información relevante; (2) combinación: la capacidad de combinar información semántica en todos los párrafos; y (3) inferencia específica de RAG: la capacidad de procesar aún más el conocimiento externo utilizando el conocimiento interno. Por lo tanto, presentamos la Generación Aumentada de Recuperación Ajustada Dirigida por Pensamiento Jerárquico (HIRAG), un novedoso método de ajuste fino dirigido por RAG que incorpora una estrategia de "pensar antes de responder". Este método aprovecha una cadena de pensamiento progresivo de múltiples etapas para mejorar la testabilidad del modelo a libro abierto. Los resultados experimentales muestran que la estrategia de entrenamiento HIRAG mejora significativamente el rendimiento del modelo en conjuntos de datos como RGB, PopQA, MuSiQue, HotpotQA y PubmedQA.