Los avances en los modelos de lenguaje a gran escala (LLM) han generado mejoras significativas en diversas áreas de servicio, como los chatbots y las aplicaciones de preconsulta médica. El ajuste fino supervisado (SFT) es el método más común para adaptar los LLM a la generación de diálogos multiturno en el ámbito médico. Sin embargo, los conjuntos de datos para SFT en tareas como la preconsulta médica suelen presentar una distribución de turnos desequilibrada. El entrenamiento con estos datos introduce un nuevo mecanismo de fallo, conocido como "inercia de formato", que provoca que el modelo genere preguntas repetitivas, formalmente correctas, pero poco informativas desde el punto de vista diagnóstico, en conversaciones médicas prolongadas. Para mitigar este mecanismo de fallo, adoptamos un método sencillo basado en datos para reequilibrar la distribución de turnos del conjunto de datos de entrenamiento. Los resultados experimentales demuestran que nuestro método mitiga sustancialmente la inercia de formato en la preconsulta médica.