En este artículo, presentamos un método de Decodificación Paralela con Conocimiento de Localidad (LPD) para acelerar la generación de imágenes autorregresivas. La generación de imágenes autorregresivas actual se basa en la predicción del siguiente parche, que consume mucha memoria, lo que resulta en una alta latencia. Estudios existentes han intentado paralelizar la predicción del siguiente parche cambiando a la predicción multiparche, pero el grado de paralelización es limitado. En este artículo, presentamos dos técnicas clave para lograr una alta paralelización manteniendo la calidad de la generación. Primero, el Modelado Autoregresivo Paralelizado Flexible, una arquitectura novedosa que permite un orden de generación y un grado de paralelización arbitrarios. Esta arquitectura guía la generación en ubicaciones objetivo utilizando tokens de consulta de posición aprendibles, a la vez que garantiza la visibilidad mutua entre tokens generados simultáneamente para una decodificación paralela consistente. Segundo, el Ordenamiento de Generación con Conocimiento de Localidad, una programación novedosa que mejora la calidad de la generación al minimizar las dependencias intragrupo y maximizar el soporte contextual. Este diseño reduce la cantidad de pasos de generación de 256 a 20 (resolución de 256x256) y de 1024 a 48 (resolución de 512x512) sin ninguna degradación de la calidad en la generación de imágenes condicionales de ImageNet y logra una latencia al menos 3,4 veces menor que los modelos autorregresivos paralelizados anteriores.