Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Más allá de manuales y tareas: aprendizaje contextual a nivel de instancia para agentes LLM

Created by
  • Haebom

Autor

Kuntai Cai, Juncheng Liu, Xianglin Yang, Zhaojie Niu, Xiaokui Xiao, Xing Chen

Aprendizaje contextual a nivel de instancia para agentes LLM

Describir

Este artículo argumenta que es crucial para los agentes de modelos de lenguaje a gran escala (LLM) reconocer el contexto a nivel de instancia (datos verificables y reutilizables relacionados con instancias de entorno específicas, como ubicaciones de objetos, recetas de creación y reglas locales) más allá de los manuales a nivel de entorno que definen interfaces y reglas de interacción con el entorno e instrucciones a nivel de tarea vinculadas a objetivos específicos. Esto se debe a que el éxito depende no solo del razonamiento sobre reglas globales o indicaciones de tareas, sino también de una toma de decisiones precisa y consistente basada en hechos. Presentamos un método agnóstico de tareas que define el problema de aprendizaje de contexto a nivel de instancia (ILCL) y prioriza de forma inteligente la siguiente tarea utilizando un bosque TODO compacto y la ejecuta mediante un bucle ligero de planificación-acción-extracción. Este método genera automáticamente documentos de contexto de alta precisión que pueden reutilizarse en tareas y agentes posteriores, compensando así el coste inicial de exploración. Los experimentos con TextWorld, ALFWorld y Crafter demuestran ganancias consistentes tanto en la tasa de éxito como en la eficiencia: la tasa de éxito promedio de TextWorld en ReAct aumentó del 37% al 95%, y la de IGE aumentó del 81% al 95%.

Takeaways, Limitations

Destacamos la importancia del contexto a nivel de instancia, además del entorno tradicional y el contexto a nivel de tarea, para el éxito de los agentes LLM.
Proponemos un método independiente de la tarea para definir y resolver el problema de aprendizaje de contexto a nivel de instancia (ILCL).
Presentamos un método eficiente de aprendizaje de contexto utilizando el bosque TODO para la priorización de la exploración y el ciclo planificar-actuar-extraer.
La eficacia del método propuesto se demostró experimentalmente en los entornos TextWorld, ALFWorld y Crafter.
Demostramos que la metodología propuesta puede contribuir a mejorar el rendimiento de los agentes LLM existentes.
Se necesita más investigación para determinar la generalización del método presentado en este artículo y su aplicabilidad en diversos entornos.
Es posible que falten las complejidades de los bosques TODO y el ajuste fino del ciclo planificar-actuar-extraer.
Es posible que se requiera información adicional sobre la implementación específica y la configuración experimental del método propuesto.
👍