大规模语言模型 (LLM) 擅长理解和生成自然语言,但其易受事实错误的影响,限制了其在知识密集型任务中的可靠性。虽然解码时间策略提供了一种无需训练的有效解决方案,但现有方法分别处理标记级和层级信号,忽略了它们之间的联合动态。在本研究中,我们提出了一种标记感知、层级定位的对比解码方法,该方法通过将特定标记类型与其最具影响力的 Transformer 层对齐来改进事实生成。实证注意力分析发现了两个关键模式:标点符号在早期层级中占据主导地位,而概念标记在中间层级中主导语义推理。通过在此深度选择性地抑制对这些标记类型的注意力,我们实现了可控的事实降级,并获得了指导最终事实解码的对比信号。我们的方法无需额外的训练或模型修改,并且我们通过实验证明,它能够在多个 LLM 和各种基准测试中持续提升事实性。