Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Ontology-Guided Reverse Thinking Makes Large Language Models Stronger on Knowledge Graph Question Answering

Created by
  • Haebom

作者

Runxuan Liu, Bei Luo, Jiaqi Li, Baoxin Wang, Ming Liu, Dayong Wu, Shijin Wang, Bing Qin

概要

本稿では、大規模言語モデル(LLM)の知識グラフクエリ応答(KGQA)のパフォーマンスを向上させるための新しいフレームワークであるOntology-Guided Reverse Thinking(ORT)を提案します。既存のKGQA法がエンティティベクトルマッチングに依存して多段階推論が必要な質問に対する応答に困難を抱える問題を解決するために,人間の逆推論方式からインスピレーションを得て,目的から条件にさかのぼる推論経路を構成するORTを提​​示する。 ORTは、LLMによる目的と条件ラベルの抽出、知識グラフオントロジーベースのラベル推論パスの生成、ラベル推論パスを使用した知識検索の3段階で構成されています。 WebQSPとCWQデータセットの実験の結果、ORTは最先端のパフォーマンスを達成し、LLMのKGQA能力を大幅に向上させることを示しています。

Takeaways、Limitations

Takeaways:
LLMベースKGQAにおける多段階推論問題解決への新しいアプローチの提示
逆推論方式を活用して情報損失と冗長性を低減
オントロジーベースの推論経路生成による精度の向上
WebQSPおよびCWQデータセットで最先端のパフォーマンスを実現
Limitations:
提案されたORTフレームワークの一般性と他の知識グラフや質問タイプへの適用性に関するさらなる研究が必要
LLMの性能に依存するため、LLMの制限がORTの性能に影響を与える可能性がある
複雑な質問やあいまいな質問の処理性能評価が必要
👍