Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

CiteBART: Learning to Generate Citations for Local Citation Recommendation

Created by
  • Haebom

作者

Ege Yi\u{g}it \c{C}elik, Selma Tekir

概要

本論文は引用推薦(LCR)のための新しいアプローチを提示し、特に生成的アプローチを利用してエンコーダ - デコーダアーキテクチャ内で引用特化事前トレーニングを実行します。著者 - 日付引用トークンをマスクして再構成を学習する方法で2つのバリエーションを提案します。 1つ目はローカルコンテキストだけを使用するCiteBART-Baseで、2つ目は引用論文のタイトルと要約を追加して学習シグナルを強化するCiteBART-Globalです。 CiteBART-Globalは、ほとんどのLCRベンチマークで最先端のパフォーマンスを達成し、Refseerベンチマークでトレーニングされたモデルが最も優れたパフォーマンスを示しました。この論文はまた、さまざまな実験と分析を通じて、CiteBART-Globalの一般化能力と幻覚の傾向に関する詳細な統計を提供します。

Takeaways、Limitations

Takeaways:
生成的な事前訓練によってLCR性能を向上させる。
CiteBART-Globalモデルは、ほとんどのベンチマークでSOTAを達成。
Refseerベンチマークで訓練されたモデルが最も優れたパフォーマンスを見せます。
クロスデータセットの一般化能力を確認します。
低い幻覚率(MaHR)を示す。
Limitations:
FullTextPeerReadデータセットのような小さなデータセットでは、生成的な事前トレーニングの利点を確認するのが困難です。
幻覚現象のさらなる研究が必要です。
👍