Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

RAG-R1: Incentivar las capacidades de búsqueda y razonamiento de los LLM mediante paralelismo de múltiples consultas

Created by
  • Haebom

Autor

Zhiwen Tan, Jiaming Huang, Qintong Wu, Hongxuan Zhang, Chenyi Zhuang, Jinjie Gu

Describir

Para abordar las limitaciones de los modelos de lenguaje a gran escala (LLM), que tienden a generar alucinaciones o respuestas obsoletas debido al conocimiento interno estático, este artículo propone un método de Generación Aumentada por Recuperación (RAG) basado en aprendizaje por refuerzo (RL) para mejorar las capacidades de recuperación e inferencia del modelo. Para abordar las limitaciones de los métodos RAG existentes, incluyendo la inestabilidad del entrenamiento, el tiempo de inferencia significativo y la funcionalidad limitada debido al modo de consulta única, presentamos RAG-R1, un novedoso marco de entrenamiento diseñado para permitir que los LLM utilicen de forma adaptativa el conocimiento interno y externo durante el proceso de inferencia. RAG-R1 extiende los procesos de generación y recuperación del modo de consulta única al procesamiento paralelo de múltiples consultas, reduciendo el tiempo de inferencia y mejorando la funcionalidad del modelo. Experimentos exhaustivos en siete puntos de referencia de preguntas y respuestas demuestran que el método propuesto supera al modelo base de mejor rendimiento en hasta un 13,2 % y reduce el tiempo de inferencia en un 11,1 %.

Takeaways, Limitations

Takeaways:
Se presenta un método eficaz para reducir el tiempo de inferencia del LLM basado en RAG.
Demostramos que el rendimiento de LLM se puede mejorar mediante el uso del procesamiento paralelo de múltiples consultas.
Validación de la eficacia de un nuevo marco de formación, RAG-R1, que aprovecha de forma adaptativa el conocimiento interno y externo.
Superar la Limitations del método RAG existente y lograr una mejora del rendimiento.
Limitations:
La mejora del rendimiento del método propuesto puede limitarse a puntos de referencia de respuesta a preguntas específicas.
Se necesitan más investigaciones para determinar la generalización de diferentes tipos de métodos LLM y RAG.
La eficiencia del procesamiento paralelo de múltiples consultas puede depender de los recursos de hardware.
Se necesita un análisis más profundo de la estabilidad del entrenamiento y el rendimiento de generalización de RAG-R1.
👍