Este artículo presenta un enfoque novedoso para generar imágenes médicas dinámicas, escalables y precisas a partir de descripciones de texto, abordando el desafío MEDVQA-GI. Para superar las limitaciones de los métodos existentes (análisis de imágenes estáticas y la falta de generación dinámica de imágenes médicas a partir de descripciones de texto), integramos los modelos Stable Diffusion y DreamBooth afinados con Low-Rank Adaptation (LORA) para generar imágenes médicas de alta calidad. El sistema consta de dos subtareas: Síntesis de Imagen (IS) y Generación Óptima de Avisos (OPG). Los resultados de la evaluación muestran que Stable Diffusion genera imágenes de mayor calidad y más diversas que CLIP y DreamBooth + LORA. Específicamente, logró la puntuación FID más baja (0,099 para unicéntrico, 0,064 para multicéntrico y 0,067 para combinado) y la puntuación Inception más alta (promedio en todos los conjuntos de datos, 2,327). Se espera que este logro contribuya al avance del diagnóstico médico basado en IA.