每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

通过 RST 增强图融合和可解释性预测实现跨文档跨语言 NLI

Created by
  • Haebom

作者

袁梦莹、王文浩、王紫轩、黄玉杰、魏康丽、李飞、滕冲、季东红

大纲

本文提出了跨文档跨语言自然语言推理 (CDCL-NLI),这是一种将自然语言推理 (NLI) 扩展到多文档和多语言场景的全新范式。为了支持 CDCL-NLI 任务,我们构建了一个高质量的 CDCL-NLI 数据集,包含 26 种语言的 25,410 个实例。此外,我们提出了一种创新方法,将基于修辞结构理论 (RST) 的图融合与可解释性感知预测相结合。该方法利用异构图神经网络中的 RST 来建模多文档上下文,并通过基于词汇链的结构感知语义对齐进行多语言理解。我们开发了一个基本语篇单元 (EDU) 级别的归因框架,可为 NLI 可解释性生成可提取的解释。实验结果表明,该方法优于现有的 NLI 模型和大规模语言模型。

Takeaways, Limitations

Takeaways:
我们提出了一种名为 CDCL-NLI 的新 NLI 范式,为多文档、多语言上下文理解的研究打开了大门。
我们构建了一个涵盖 26 种语言的高质量 CDCL-NLI 数据集。
我们通过开发一种集成基于 RST 的图融合和可解释性感知预测的创新方法来提高 CDCL-NLI 任务的性能。
通过 EDU 级归因框架提高 NLI 的可解释性。
与现有的 NLI 模型和大规模语言模型相比,它表现出了卓越的性能。
Limitations:
具体的 Limitations 并未在论文中明确提及。进一步的研究或许能揭示它。
👍