Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

KCR: Resolving Long-Context Knowledge Conflicts via Reasoning in LLMs

Created by
  • Haebom

作者

Xianda Zheng, Zijian Huang, Meng-Fen Chiang, Michael J. Witbrock, Kaiqi Zhao

概要

本論文は、大規模言語モデル(LLM)が複数のソースの相反する知識(特に、長文の相反するコンテキスト間の知識の衝突)を扱うときに混乱を招く問題を解決するために、知識衝突推論(KCR)フレームワークを提案します。 KCRは、相反する文脈が与えられたときに論理的一貫性がより強い文脈を選択して遵守するように、LLMを強化学習(Reinforcement Learning)を通じて訓練することを核心とする。まず、相反する長文の文脈からテキストまたは地域の知識グラフで表現された推論経路を抽出し、それに基づいてモデルが正しい推論経路に従うように学習し、長文の文脈内の知識衝突を解決する能力を向上させる。実験の結果、提案されたフレームワークは、様々なLLMの知識衝突解決能力を大幅に向上させることを示した。

Takeaways、Limitations

Takeaways:
LLMの長文文脈処理能力の向上に貢献する。
相反する情報処理に対する新しいアプローチを提示する。
強化学習を活用してLLMの推論能力を効果的に向上させる
さまざまなLLMに適用可能な一般的なフレームワークを提供します。
Limitations:
提案されたフレームワークの性能は、使用される強化学習アルゴリズムおよび補償関数に依存し得る。
推論経路抽出プロセスの精度は全体の性能に影響を与える可能性があります。
特定の種類の知識の衝突にのみ有効である可能性があります。
トレーニングデータの品質と量によってパフォーマンスが異なる場合があります。
👍