Este artículo examina técnicas de ensamble para modelos lingüísticos a gran escala (LLM) basados en transformadores generativos preentrenados (GPT). Los LLM individuales suelen producir resultados inconsistentes y presentan sesgos, lo que limita su capacidad para representar adecuadamente diversos patrones lingüísticos. Además, muchos LLM potentes son de código cerrado, lo que limita sus aplicaciones industriales debido a preocupaciones sobre la privacidad de los datos. Basándose en su éxito en la generación de texto, este artículo examina las técnicas de ensamble de LLM para la generación de código y analiza sus capacidades clasificándolas en siete enfoques clave: fusión ponderada, fusión de conocimiento, mezcla experta, ensamble de recompensa, ensamble de salida, enrutamiento y cascada. Destacamos las principales ventajas, como una mejor representación de la diversidad, una mejor calidad de salida y una mayor flexibilidad de aplicación. Este enfoque facilita la selección de modelos para tareas prácticas y sienta las bases para extender las estrategias de ensamble a los LLM multimodales.