每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

超越手册和任务:LLM 代理的实例级上下文学习

Created by
  • Haebom

作者

蔡坤泰、刘俊城、杨祥林、牛兆杰、肖小葵、陈星

LLM 代理的实例级上下文学习

大纲

本文认为,对于大规模语言模型 (LLM) 代理而言,识别实例级上下文至关重要——与特定环境实例相关的可验证和可重用事实,例如物体位置、制作配方和本地规则——这超越了定义环境交互界面和规则的环境级手册以及与特定目标相关的任务级指令。这是因为成功不仅取决于对全局规则或任务提示的推理,还取决于基于事实的准确且一致的决策。我们提出了一种与任务无关的方法,该方法定义了实例级上下文学习 (ILCL) 问题,并使用紧凑的 TODO 森林智能地确定下一个任务的优先级,并使用轻量级的“计划-执行-提取”循环执行该任务。该方法自动生成可在下游任务和代理中重用的高精度上下文文档,从而抵消初始探索成本。使用 TextWorld、ALFWorld 和 Crafter 进行的实验表明,成功率和效率都有所提高,其中 TextWorld 在 ReAct 中的平均成功率从 37% 提高到 95%,IGE 的平均成功率从 81% 提高到 95%。

Takeaways,Limitations

我们强调除了传统环境和任务级上下文之外实例级上下文对于 LLM 代理的成功的重要性。
我们提出了一种与任务无关的方法来定义和解决实例级上下文学习(ILCL)问题。
我们提出了一种有效的上下文学习方法,使用 TODO 森林进行探索优先级排序和计划-行动-提取循环。
在 TextWorld、ALFWorld 和 Crafter 环境中实验证明了所提出方法的有效性。
我们证明,所提出的方法有助于提高现有 LLM 代理的性能。
需要进一步研究来确定本文提出的方法的普遍性及其在各种环境中的适用性。
TODO 森林的复杂性和计划-行动-提取循环的微调可能有所欠缺。
可能需要有关所提出方法的具体实施和实验设置的更多信息。
👍