Este artículo se centra en el potencial de procesamiento paralelo de la decodificación autorregresiva para abordar el problema de latencia de inferencia de los modelos de lenguaje a gran escala (LLM). Proponemos una técnica de decodificación adaptativa serie-paralela (ASPD) que aprovecha el paralelismo intrínseco en la salida de los modelos autorregresivos para realizar decodificación paralela. La ASPD consta de una secuencia de comandos que extrae y valida automáticamente estructuras de datos paralelizables y un motor de decodificación híbrido que permite la conmutación fluida entre los modos de decodificación serie y paralelo. Los resultados experimentales en diversas tareas (tareas generales, generación de búsqueda aumentada e inferencia matemática) demuestran que la ASPD supera a los métodos existentes en términos de eficiencia y eficacia, alcanzando una aceleración promedio de 1,85x (hasta 3,19x) en el banco de pruebas Vicuna, manteniendo una degradación de la calidad de respuesta inferior al 1%.