本論文は引用推薦(LCR)のための新しいアプローチを提示し、特に生成的アプローチを利用してエンコーダ - デコーダアーキテクチャ内で引用特化事前トレーニングを実行します。著者 - 日付引用トークンをマスクして再構成を学習する方法で2つのバリエーションを提案します。 1つ目はローカルコンテキストだけを使用するCiteBART-Baseで、2つ目は引用論文のタイトルと要約を追加して学習シグナルを強化するCiteBART-Globalです。 CiteBART-Globalは、ほとんどのLCRベンチマークで最先端のパフォーマンスを達成し、Refseerベンチマークでトレーニングされたモデルが最も優れたパフォーマンスを示しました。この論文はまた、さまざまな実験と分析を通じて、CiteBART-Globalの一般化能力と幻覚の傾向に関する詳細な統計を提供します。