Mô hình Ngôn ngữ Quy mô Lớn Khuếch tán (dLLM) tạo văn bản thông qua quá trình khử nhiễu lặp đi lặp lại, nhưng các chiến lược giải mã hiện tại lại loại bỏ các dự đoán trung gian phong phú cho đầu ra cuối cùng. Nghiên cứu này khám phá ra hiện tượng dao động thời gian, trong đó các câu trả lời đúng xuất hiện trong giai đoạn trung gian và sau đó bị ghi đè trong giai đoạn khử nhiễu. Để giải quyết vấn đề này, chúng tôi đề xuất hai phương pháp bổ sung tận dụng tính nhất quán về mặt thời gian. Đầu tiên, Biểu quyết Tự Nhất quán Thời gian (TSV), một chiến lược giải mã thời gian kiểm tra không cần đào tạo, tổng hợp các dự đoán từ giai đoạn khử nhiễu để chọn đầu ra nhất quán nhất. Thứ hai, Củng cố Tính Nhất quán Thời gian (TCR), một phương pháp sau đào tạo khuyến khích tạo ra ổn định bằng cách sử dụng Entropy Ngữ nghĩa Thời gian (TSE), một thước đo tính ổn định ngữ nghĩa trong các dự đoán trung gian, như một tín hiệu thưởng. Kết quả thử nghiệm trên một số điểm chuẩn chứng minh tính hiệu quả của phương pháp được đề xuất. Chỉ sử dụng bù TSE âm, chúng tôi quan sát thấy hiệu suất trung bình được cải thiện đáng kể là 24,7% so với dLLM hiện có trên tập dữ liệu Đếm ngược. Kết hợp với bù trừ độ chính xác, chúng tôi đã đạt được cải thiện hiệu suất tuyệt đối 2,0% trên GSM8K, 4,3% trên MATH500, 6,6% trên SVAMP và 25,3% trên Countdown. Những kết quả này làm nổi bật tiềm năng chưa được khai thác của động lực học thời gian của dLLM và cung cấp hai công cụ đơn giản nhưng hiệu quả để khai thác nó.