每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

格式惯性:法学硕士在医学预会诊中的失败机制

Created by
  • Haebom

作者

Seungseop Lim、Gibaeg Kim、Wooseok Han、Jean Seo、Hyunkyung Lee、Jaehyo Yoo、Eunho Yang

大纲

大规模语言模型 (LLM) 的进步已显著提升了聊天机器人和医疗预咨询应用等各个服务领域的性能。监督式微调 (SFT) 是医疗领域中将 LLM 应用于多轮对话生成的最常用方法。然而,医疗预咨询等任务中的 SFT 数据集通常存在轮次分布不均衡的问题。使用此类数据进行训练会引入一种名为“格式惯性”的新型故障机制,导致模型在冗长的医疗对话中生成重复的、形式正确但诊断信息不足的问题。为了缓解这种故障机制,我们采用了一种简单的数据驱动方法来重新平衡训练数据集的轮次分布。实验结果表明,我们的方法显著缓解了医疗预咨询中的格式惯性问题。

Takeaways,Limitations

Takeaways:
我们发现了一种称为“格式惯性”的新失败机制。
我们证明,采用以数据为中心的方法可以有效地缓解格式惯性。
它有助于提高医疗预咨询等多轮对话系统的性能。
Limitations:
需要进一步研究来确定所提出方法的普遍性。
没有考虑其他故障机制。
除了简单的数据重新平衡之外,还需要探索其他改进方法。
👍