本文系统地探讨了大规模语言模型 (LLM) 在复杂推理任务中的失败是否不仅仅源于逻辑缺陷,还源于问题理解的缺陷。我们的研究结果揭示了三个关键见解。首先,将计算效率高的分步原则应用于阅读过程可以增强理解力。其次,可以通过增加与问题相关的标记的比例来重新引导注意力,从而提高理解力。第三,后向依赖关系是纯解码器模型的一个关键瓶颈,即使使用像思维链 (Chain-of-Thought) 这样的强大方法,后向依赖关系仍然存在。基于这些发现,我们提出了分步阅读 (SSR) 提示系列,这是一种多步骤方法,可引导模型更精细地解析问题,将注意力集中在重要的标记上,并通过迭代的重新语境化解决后向依赖关系,从而提高理解力。具体而言,SSR++ 在多个推理基准测试中均取得了最佳性能,我们的分析表明它可以直接缓解语义误解。这些结果表明,引导模型的阅读行为是提高推理性能的强大而有效的方法。