Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

RAG-R1: Incentivize the Search and Reasoning Capabilities of LLMs through Multi-query Parallelism

Created by
  • Haebom

作者

Zhiwen Tan, Jiaming Huang, Qintong Wu, Hongxuan Zhang, Chenyi Zhuang, Jinjie Gu

概要

本論文は、静的内部知識のために幻覚応答または古い応答を生成する傾向がある大規模言語モデル(LLM)の限界を解決するために、強化学習(RL)を介してモデルの検索および推論能力を向上させる検索拡張生成(RAG)方法を提示します。既存のRAG方法のトレーニング安定性の問題、かなりの推論時間、単一のクエリモードによる制限された機能などの問題を解決するために、RAG-R1という新しいトレーニングフレームワークを提案します。 RAG-R1は、LLMが推論プロセス中に内部および外部の知識を適応的に活用できるように設計されており、単一クエリモードで複数のクエリ並列処理で生成および検索プロセスを拡張し、推論時間を短縮し、モデルの機能を向上させます. 7つの質問回答ベンチマークの広範な実験の結果、提案された方法は、最高性能の基準モデルよりも最大13.2%向上した性能を示し、推論時間は11.1%減少しました。

Takeaways、Limitations

Takeaways:
RAGベースLLMの推論時間の短縮と性能向上の可能性の提示
マルチクエリ並列処理による効率的な知識活用方案の提示
7つの質問応答ベンチマークにおいて、既存の最高性能モデルと比較して、パフォーマンスの向上と推論時間の短縮が実験的に検証されました。
Limitations:
提案された方法の一般化性能に関するさらなる研究の必要性
さまざまな種類の質問タイプの Robustness 評価が必要
特定のベンチマークに限定された実験結果の一般化の可能性のレビューが必要
👍