本文认为,对于大规模语言模型 (LLM) 代理而言,识别实例级上下文至关重要——与特定环境实例相关的可验证和可重用事实,例如物体位置、制作配方和本地规则——这超越了定义环境交互界面和规则的环境级手册以及与特定目标相关的任务级指令。这是因为成功不仅取决于对全局规则或任务提示的推理,还取决于基于事实的准确且一致的决策。我们提出了一种与任务无关的方法,该方法定义了实例级上下文学习 (ILCL) 问题,并使用紧凑的 TODO 森林智能地确定下一个任务的优先级,并使用轻量级的“计划-执行-提取”循环执行该任务。该方法自动生成可在下游任务和代理中重用的高精度上下文文档,从而抵消初始探索成本。使用 TextWorld、ALFWorld 和 Crafter 进行的实验表明,成功率和效率都有所提高,其中 TextWorld 在 ReAct 中的平均成功率从 37% 提高到 95%,IGE 的平均成功率从 81% 提高到 95%。