扩散大型语言模型 (DLLM) 通过重复去噪步骤生成文本,并通过在每个步骤中仅对高置信度位置进行去噪来执行并行解码。由于初始置信度得分较低,现有方法会反复重新屏蔽 token,从而导致冗余重复并限制整体加速。在本研究中,我们分析了 dLLM 解码轨迹,并观察到该模型会提前几个解码步骤确定 token 的最终预测。为了利用这些过去的信息并避免冗余步骤,我们引入了“轨迹信用”的概念,它累积过去的 logit 来量化每个 token 的收敛概率。此外,我们提出了 CreditDecoding,这是一种无需学习的并行解码算法,它通过将当前 logit 与“轨迹信用”融合,加速正确但低置信度 token 的置信度收敛。CreditDecoding 显著减少了冗余重复并提高了解码的鲁棒性。与 LLaDA-8B-Instruct 相比,CreditDecoding 在八个基准测试中实现了 5.48 倍的加速和 0.48% 的性能提升;与 LLaDA-MoE-Instruct 相比,CreditDecoding 实现了 4.11 倍的加速和 0.15% 的性能提升。CreditDecoding 能够有效扩展到长序列,并且独立于主流推理优化,使其成为一个功能多样且易于集成的解决方案。