[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Ajuste dinámico del contexto para la generación aumentada por recuperación: mejora de la planificación multiturno y la adaptación de herramientas

Created by
  • Haebom

Autor

Jubin Abhishek Soni, Amit Anand, Rajesh Kumar Pandey, Aniket Abhishek Soni

Describir

Los modelos de lenguaje a gran escala (LLM) existentes basados en la Generación Aumentada por Recuperación (RAG) se limitan a interacciones estáticas de un solo turno y a un conjunto fijo de herramientas, lo que los hace inadecuados para entornos dinámicos como la atención médica y los hogares inteligentes. En este artículo, presentamos el Ajuste Dinámico de Contexto (DCT), un marco ligero que extiende RAG para admitir conversaciones de múltiples turnos y entornos de herramientas cambiantes sin necesidad de reentrenamiento. El DCT integra una caché de contexto basada en la atención para rastrear información histórica relevante, recuperación basada en LoRA para seleccionar dinámicamente herramientas específicas del dominio y una compresión de contexto eficiente para mantener las entradas dentro de las restricciones del contexto LLM. Experimentos de referencia sintéticos y en el mundo real muestran que el DCT mejora la precisión de la planificación en un 14 % y reduce las alucinaciones en un 37 %, a la vez que alcanza el rendimiento GPT-4 a un coste mucho menor. Además, el DCT se generaliza a herramientas nunca antes vistas, lo que permite asistentes de IA escalables y adaptables en diversos entornos dinámicos.

Takeaways, Limitations

Takeaways:
Presentamos DCT, un marco liviano para sistemas RAG que admite conversaciones de múltiples turnos y entornos de herramientas cambiantes.
Mejora del rendimiento gracias a una mayor precisión de planificación y una reducción de las alucinaciones (14 % de precisión de planificación, 37 % de reducción de las alucinaciones).
Conseguir un rendimiento de nivel GPT-4 a un coste mucho menor.
Generalizable a herramientas nunca antes vistas, lo que sugiere la posibilidad de implementar asistentes de IA escalables y adaptables en entornos diversos y dinámicos.
Limitations:
Se necesitan más investigaciones para determinar la generalización de los resultados experimentales presentados en este artículo.
Se necesita una evaluación adicional de la aplicación y el rendimiento para varios entornos reales.
Se necesita una verificación adicional de la escalabilidad y estabilidad de DCT.
👍