每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

SSFO:检索增强生成的自监督忠实度优化

Created by
  • Haebom

作者

唐夏强、王毅、胡克宇、徐睿、李闯、孙伟高、李健、谢思宏

大纲

为了解决检索增强生成 (RAG) 系统中的模型幻觉问题,我们提出了自监督忠实度优化 (SSFO)。SSFO 通过对比包含和不包含上下文的模型输出来构建偏好数据对,并使用直接偏好优化 (DPO) 来提升模型准确率,而无需标注成本或额外的推理开销。SSFO 利用“似然位移”现象,将概率质量转移到上下文对齐的词条上,并在此基础上提出了一种改进的 DPO 损失函数。SSFO 在多个数据集上取得了最佳性能,超越了现有方法,并在多语言环境中保持了泛化能力和方向跟踪能力。

Takeaways, Limitations

Takeaways:
提出了一种解决 RAG 系统中幻觉现象的新方法。
通过自我监督学习提高模型准确性,而无需标记成本。
利用 DPO 对齐模型,而无需额外的推理负担。
提出了一种利用“似然位移”现象来提高模型精度的新机制。
在多样化数据集上实现 SOTA 性能并在多语言环境中展示泛化能力。
Limitations:
论文中没有具体提及Limitations。
👍