확산형 대규모 언어 모델(dLLM)은 반복적인 잡음 제거를 통해 텍스트를 생성하지만, 현재 디코딩 전략은 최종 출력을 위해 풍부한 중간 예측을 버립니다. 본 연구는 올바른 답변이 중간 과정에서 나타났다가 이후 잡음 제거 단계에서 덮어쓰여지는 시간적 진동 현상을 밝힙니다. 이 문제를 해결하기 위해, 시간적 일관성을 활용하는 두 가지 상호 보완적인 방법을 제시합니다. 첫째, 훈련이 필요 없는 테스트 시간 디코딩 전략인 시간적 자기 일관성 투표(Temporal Self-Consistency Voting)는 잡음 제거 단계에서의 예측을 집계하여 가장 일관된 출력을 선택합니다. 둘째, 중간 예측에서의 의미적 안정성을 측정하는 시간적 의미 엔트로피(TSE)를 보상 신호로 사용하여 안정적인 생성을 장려하는 사후 훈련 방법인 시간적 일관성 강화(Temporal Consistency Reinforcement)입니다. 여러 벤치마크에 대한 실험 결과는 제안된 방법의 효과를 보여줍니다. 음의 TSE 보상만 사용해도 기존 dLLM보다 Countdown 데이터셋에서 평균 24.7%의 놀라운 성능 향상을 관찰했습니다. 정확도 보상과 결합하여 GSM8K에서 2.0%, MATH500에서 4.3%, SVAMP에서 6.6%, Countdown에서 25.3%의 절대적인 성능 향상을 달성했습니다. 본 연구 결과는 dLLM의 시간적 역동성의 활용되지 않은 잠재력을 강조하고, 이를 활용하기 위한 두 가지 간단하지만 효과적인 도구를 제공합니다.