Este artículo aprovecha la relación entre los DDPM y la localización probabilística para superar el cuello de botella de la inferencia en los modelos probabilísticos de difusión (DDPM) con denoising. Al demostrar que la incrementalidad de los DDPM satisface la propiedad de intercambiabilidad, demostramos que diversas técnicas de optimización del rendimiento basadas en modelos autorregresivos pueden aplicarse al entorno de difusión. En concreto, proponemos la «Decodificación Predictiva Automática» (ASD), una extensión del algoritmo de decodificación predictiva, ampliamente utilizado para DDPM, sin necesidad de modelos auxiliares. Demostramos mediante análisis teórico que la ASD logra una aceleración de $\tilde{O}(K^{\frac{1}{3}})$ en la ejecución paralela en comparación con los DDPM secuenciales de K etapas, y demostramos experimentalmente que acelera significativamente la inferencia de DDPM en diversas aplicaciones.