大规模语言模型 (LLM) 在处理长上下文时会因先前上下文中不相关信息的干扰而导致性能下降,从而阻碍推理和记忆回忆。与以往侧重于外部记忆系统来提升 LLM 性能的研究不同,本文提出了一种通过提供主动上下文管理 (ACM) 工具来主动塑造 LLM 内部工作记忆的方法。通过名为 Sculptor 的框架,LLM 配备了三类工具:(1) 上下文分割,(2) 总结、隐藏和恢复,以及 (3) 精确检索。这种方法使 LLM 能够主动管理注意力和工作记忆。在各种长期上下文基准测试上的实验评估表明,Sculptor 凭借其独特的工具回忆和指令跟踪能力,无需特殊训练即可显著提升 LLM 性能。此外,为了优化这一策略,我们引入了一种新颖的动态上下文感知强化学习 (RL) 方法,该方法可以提升能够主动修改对话记录的智能体的训练。通过主动上下文管理,Sculptor 不仅可以减轻先发制人的干扰,还能为跨多种长期上下文任务进行更可靠的推理提供认知基础。这凸显了明确的上下文控制策略,而非仅仅扩大令牌窗口,才是实现大规模稳健性的关键。