Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Efficient Context Selection for Long-Context QA: No Tuning, No Iteration, Just Adaptive-$k$

Created by
  • Haebom

作者

チヒロタチュ、セイジマエカワ、ニキタブタニ

概要

Retrieval-augmented generation (RAG) と long-context language models (LCLMs) は LLM のコンテキスト限界を解決するが、検索する最適な外部コンテキストは未解決の課題である。 Adaptive-$k$ retrievalは、クエリと候補フレーズとの類似度スコア分布に基づいてフレーズ数を適応的に選択する簡単で効果的なシングルパス方法です。モデルの微調整、追加のLLM推論、または既存の検索リーダーパイプラインの変更は必要ありません。

Takeaways、Limitations

Adaptive-$k$ retrieval は、固定-$k$ ベースラインと同等またはより良いパフォーマンスを示し、全体のコンテキスト入力より最大 10 倍少ないトークンを使用し、関連するフレーズの 70% を検索します。
5つのLCLMと2つの埋め込みモデルで精度を向上させます。
シングルパス方式では、繰り返しLLMプロンプトに依存する既存の適応方式の欠点を解決します。
集約QAで特に効果的です。
👍