Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

HIRAG: Pensamiento jerárquico, instrucción, ajuste, recuperación y generación aumentada

Created by
  • Haebom

Autor

YiHan Jiao, ZheHao Tan, Dan Yang, DuoLin Sun, Jie Feng, Yue Shen, Jian Wang, Peng Wei

Describir

Este artículo analiza la Generación Aumentada por Recuperación (RAG), que se ha convertido en un paradigma fundamental para abordar los desafíos que enfrentan los modelos de lenguaje a gran escala (LLM) en el procesamiento de información en tiempo real y problemas específicos del dominio. Los sistemas RAG existentes se basan principalmente en las capacidades de aprendizaje en contexto (ICL) del propio LLM, pero falta investigación en profundidad sobre las capacidades específicas requeridas para los modelos de generación RAG, lo que conduce a una calidad inconsistente de los documentos y sistemas de recuperación defectuosos. Incluso la limitada investigación sobre el ajuste fino de los modelos de generación RAG carece de un enfoque granular en las tareas RAG o una comprensión profunda del proceso de la cadena de pensamiento. Para abordar esto, este artículo propone que los modelos RAG deben poseer tres capacidades progresivamente jerárquicas: (1) filtrado: la capacidad de seleccionar información relevante; (2) combinación: la capacidad de combinar información semántica en todos los párrafos; y (3) inferencia específica de RAG: la capacidad de procesar aún más el conocimiento externo utilizando el conocimiento interno. Por lo tanto, presentamos la Generación Aumentada de Recuperación Ajustada Dirigida por Pensamiento Jerárquico (HIRAG), un novedoso método de ajuste fino dirigido por RAG que incorpora una estrategia de "pensar antes de responder". Este método aprovecha una cadena de pensamiento progresivo de múltiples etapas para mejorar la testabilidad del modelo a libro abierto. Los resultados experimentales muestran que la estrategia de entrenamiento HIRAG mejora significativamente el rendimiento del modelo en conjuntos de datos como RGB, PopQA, MuSiQue, HotpotQA y PubmedQA.

Takeaways, Limitations

Takeaways:
Presentamos la importancia de un proceso de pensamiento jerárquico (filtrado, combinación y razonamiento específico de RAG) para mejorar el rendimiento de los modelos RAG.
Proponemos un nuevo método de ajuste fino de RAG llamado HIRAG y demostramos experimentalmente su mejora del rendimiento en varios conjuntos de datos.
Mejorar la capacidad de prueba de libro abierto del modelo a través de la estrategia "pensar antes de responder".
Limitations:
Se necesita más investigación sobre el rendimiento de generalización del método HIRAG propuesto.
Se necesita una validación adicional para determinar si las mejoras de rendimiento de un conjunto de datos específico se pueden aplicar a otros conjuntos de datos.
Posible aumento de los costos computacionales debido a la complejidad del proceso de la cadena de accidentes.
👍