Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

LightRetriever: A LLM-based Hybrid Retrieval Architecture with 1000x Faster Query Inference

Created by
  • Haebom

作者

Guangyuan Ma, Yongliang Ma, Xuanrui Gou, Zhenpeng Su, Ming Zhou, Songlin Hu

概要

本論文では、大規模言語モデル(LLM)ベースのテキスト検索における効率性の問題を解決するためにLightRetrieverを提案します。従来のLLMベースの検索では、クエリエンコーディングに多くの演算量が必要になり、速度低下やリソース消費の問題が発生します。 LightRetrieverはドキュメントエンコーディングには従来の大規模LLMを使用しますが、クエリエンコーディングプロセスを埋め込みルックアップレベルに軽量化して速度を劇的に向上させます。 A800 GPUを使用した実験の結果、クエリのエンコード速度は1000倍以上、全体的な検索スループットは10倍以上向上し、さまざまな作業で平均95%の検索性能を維持することがわかりました。

Takeaways、Limitations

Takeaways:
LLMベースの検索の速度と効率の問題を劇的に改善するLightRetrieverの提示
クエリエンコーディングの演算量を最小限に抑え、リアルタイム検索システムに適用可能性を高めます。
大規模なデータセットで高い検索性能を維持しながらスピードアップを実現。
軽量化されたクエリエンコーディングによってリソース消費を削減します。
Limitations:
埋め込み照会に依存するため、埋め込みの品質は検索パフォーマンスに大きな影響を与える可能性があります。
提示された方法がすべての種類の検索クエリに対して同じパフォーマンスを保証するという保証はありません。
文書符号化には依然として大規模なLLMを使用するので、文書符号化自体の計算量は依然として相当であり得る。
LightRetrieverのパフォーマンス向上は、特定のハードウェア(A800 GPU)環境で測定された結果であるため、他の環境ではパフォーマンスの違いが発生する可能性があります。
👍