大规模语言模型 (LLM) 的进步已显著提升了聊天机器人和医疗预咨询应用等各个服务领域的性能。监督式微调 (SFT) 是医疗领域中将 LLM 应用于多轮对话生成的最常用方法。然而,医疗预咨询等任务中的 SFT 数据集通常存在轮次分布不均衡的问题。使用此类数据进行训练会引入一种名为“格式惯性”的新型故障机制,导致模型在冗长的医疗对话中生成重复的、形式正确但诊断信息不足的问题。为了缓解这种故障机制,我们采用了一种简单的数据驱动方法来重新平衡训练数据集的轮次分布。实验结果表明,我们的方法显著缓解了医疗预咨询中的格式惯性问题。