Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

CoT-RAG: Integración de la cadena de pensamiento y la recuperación-generación aumentada para mejorar el razonamiento en modelos lingüísticos extensos

Created by
  • Haebom

Autor

Feiyang Li, Peng Fang, Zhan Shi, Arijit Khan, Fang Wang, Weihao Wang, Xin Zhang, Yongjian Cui

Describir

CoT-RAG es un novedoso marco de inferencia que mejora el rendimiento de tareas complejas para modelos de lenguaje a gran escala (LLM). Para abordar las limitaciones de la inferencia de Cadena de Pensamiento (CoT) existente, como la falta de fiabilidad de la inferencia y un menor rendimiento con indicaciones de código que con indicaciones de lenguaje natural, presentamos tres características de diseño clave. En primer lugar, construimos un CoT basado en un grafo de conocimiento, que mejora la fiabilidad de la inferencia al aprovechar el grafo de conocimiento para regular la generación de la cadena de inferencia del LLM. En segundo lugar, integramos un RAG de conocimiento con reconocimiento de casos, que recupera subcasos y subexplicaciones relevantes para proporcionar información aprendible al LLM. En tercer lugar, implementamos indicaciones de pseudoprogramas, que anima al LLM a ejecutar tareas de inferencia como pseudoprogramas, mejorando así el rigor lógico. Los resultados de la evaluación en nueve conjuntos de datos públicos a lo largo de tres tareas de inferencia demuestran mejoras significativas en la precisión, del 4,0 % al 44,3 %, con respecto a los métodos más avanzados. Las pruebas en cuatro conjuntos de datos específicos del dominio también demuestran una precisión superior y una ejecución eficiente, lo que resalta su practicidad y escalabilidad.

Takeaways, Limitations

Takeaways:
Mejoramos la confiabilidad y el rendimiento de la inferencia de LLM aprovechando los gráficos de conocimiento y RAG.
Mayor rigor lógico del razonamiento a través de indicaciones del programa médico.
Ha demostrado practicidad y escalabilidad al lograr un rendimiento de última generación en diversos conjuntos de datos.
Limitations:
Es posible que se necesiten más investigaciones para determinar el rendimiento de generalización del método propuesto.
Puede haber sesgo hacia ciertos dominios.
La calidad y el tamaño del gráfico de conocimiento pueden afectar el rendimiento.
👍