本文探讨了自我改进领域的最新进展,该领域通过迭代改进来提升大规模语言模型 (LLM) 的输出。为了克服现有自我改进方法的局限性,我们提出了主动自我改进 (PASR),这是一种新颖的方法,允许 LLM 在生成过程中改进其输出。PASR 会根据模型的内部状态和不断变化的上下文主动确定何时以及如何进行改进。在十个不同任务上进行的大量实验表明,PASR 显著提升了问题解决性能。具体而言,在 Qwen3-8B 模型上,与标准生成方法相比,PASR 将平均 token 消耗减少了 41.6%,同时将准确率提高了 8.2%。