En este artículo, proponemos un método Diffusion-FSCIL que utiliza un modelo de difusión de texto a imagen preentrenado como eje central fijo para resolver el problema FSCIL, que presenta datos de entrenamiento muy limitados. Nuestro objetivo es resolver el problema FSCIL aprovechando las ventajas de los modelos generativos a gran escala, como la potencia generativa obtenida mediante preentrenamiento a gran escala, la representación multiescala y la flexibilidad de representación mediante codificadores de texto. Extraemos múltiples características de difusión complementarias para que actúen como repetición latente y utilizamos ligeramente la destilación de características para evitar el sesgo generativo. Logramos la eficiencia mediante el uso de un eje central fijo, componentes mínimos entrenables y el procesamiento por lotes de múltiples extracciones de características. Los resultados experimentales en los conjuntos de datos CUB-200, miniImageNet y CIFAR-100 muestran que Diffusion-FSCIL supera a los métodos de vanguardia existentes y se adapta eficazmente a nuevas clases, manteniendo el rendimiento en las clases previamente aprendidas.