Los Modelos de Lenguaje de Difusión (DLM) ofrecen generación de secuencias paralelas y ordenación flexible de tokens, pero su velocidad de inferencia es menor que la de los modelos autorregresivos debido al coste de la atención bidireccional y a los numerosos pasos de refinamiento necesarios para obtener resultados de alta calidad. Este artículo destaca una característica previamente pasada por alto de los DLM: la convergencia de respuestas tempranas. En muchos casos, la respuesta correcta puede identificarse internamente incluso a mitad del paso final de decodificación. Con base en esta observación, este artículo propone Prophet, un paradigma de decodificación rápido y sin entrenamiento que permite la decodificación de confirmación temprana. Prophet determina dinámicamente si continuar con el refinamiento o decodificar todos los tokens restantes a la vez, basándose en la diferencia de confianza entre los dos principales candidatos de predicción. Se integra a la perfección con las implementaciones de DLM existentes y no requiere sobrecarga ni entrenamiento adicional. Los resultados experimentales en LLaDA-8B y Dream-7B en diversas tareas demuestran que Prophet reduce el número de pasos de decodificación hasta 3,4 veces, manteniendo una alta calidad de generación. Esto replantea la decodificación DLM como el problema de decidir cuándo detener el muestreo y muestra que la convergencia de decodificación temprana es un mecanismo simple pero poderoso para acelerar la inferencia DLM.