Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Do Retrieval Augmented Language Models Know When They Don't Know?

Created by
  • Haebom

作者

Youchao Zhou, Heyan Huang, Yicheng Liu, Rui Dai, Xinglin Wang, Xingchen Zhang, Shumin Shi, Yang Deng

概要

この論文では、大規模言語モデル(LLM)の幻覚問題を解決するための2つの主なアプローチである検索拡張言語モデル(RALM)と拒絶後続の訓練(refusal post-training)について研究します。既存の研究が各アプローチの効果に焦点を当てたのとは異なり、この研究はRALMの拒否能力の評価に焦点を当てています。特にRALMが自分が知らないことを知っているか(Do RALMs know when they don't know?)を尋ねる質問から始まり、RALMの内部および外部の知識状態に対する矯正度、様々な要因の影響、拒否後続訓練(Refusal-aware Instruction TuningとIn-Context Fine-tuning)が過度に分析します。その結果、LLMはかなりの過度の拒否行動を示し、In-context Fine-tuningは過度の拒否問題を軽減しますが、R-tuningは悪化することがわかります。さらに、拒否能力と回答の質との間の矛盾を確認し、拒否後続の訓練されたモデルの全体的な回答品質を向上させる簡単で効果的な拒否方法を提供します。

Takeaways、Limitations

Takeaways:
RALMの過剰な拒絶現象を明らかにし、その原因を分析しました。
拒絶後続の訓練技術の効果をRALMの拒否能力の観点から評価し,インコンテキストファインチューニングの効果とRチューニングのマイナス影響を示した。
拒否能力と回答の質との間の相反関係を調べた。
RALMの全体的な回答の質を改善する新しい拒否方法を提案した。
RALMシステムに影響を与える重要な要因の包括的な理解を提供します。
Limitations:
本研究で提示された新たな拒絶法の一般化性能のさらなる検証が必要である。
さまざまなタイプのLLMとRALMの追加実験が必要です。
拒否能力と回答の質との間の矛盾をより深く分析する必要があります。
👍