[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

KROMA: Ontology Matching with Knowledge Retrieval and Large Language Models

Created by
  • Haebom

作者

Lam Nguyen, Erika Barcelos, Roger French, Yinghui Wu

概要

KROMAは、大規模言語モデル(LLM)を検索拡張生成(RAG)パイプライン内で活用し、オントロジーマッチング(OM)作業の意味的コンテキストを構造的、語彙的、定義的知識で動的に豊かにする新しいOMフレームワークです。既存のOMシステムの制限された適応性問題を解決するように設計されており、パフォーマンスと効率を向上させるために、類似性ベースの概念マッチングと軽量オントロジー改善フェーズを組み込むことで、候補概念を排除し、LLM呼び出しによる通信オーバーヘッドを大幅に削減します。複数のベンチマークデータセットの実験を通じて、知識検索とコンテキストリッチLLMを統合すると、従来のOMシステムと最先端のLLMベースのアプローチを上回るオントロジーマッチングのパフォーマンスが大幅に向上し、通信オーバーヘッドは同様に維持されます。この研究は、大規模オントロジーマッチングのための提案された最適化技術(ターゲット知識検索、プロンプトリッチ化、オントロジー改善)の実現可能性と利点を強調します。

Takeaways、Limitations

Takeaways:
LLMとRAGパイプラインを活用して、オントロジーマッチングの精度と効率を大幅に向上させることができます。
ターゲット知識検索、プロンプトリッチ化、オントロジー改善などの最適化手法の効果を実証的に確認します。
既存のOMシステムと最先端のLLMベースのアプローチを上回るパフォーマンスを実現します。
大規模オントロジーマッチングに対する実用的な解決策を提示します。
Limitations:
特定のLLMとベンチマークデータセットの結果であるため、一般化の可能性に関するさらなる研究が必要です。
LLMの性能に依存し、LLMの限界がKROMAの性能にも影響を与える可能性があります。
軽量オントロジー改善フェーズの効率は、データセットの特性によって異なります。
LLMコールのコストと知識ベースの構築とメンテナンスのコストを考慮する必要があります。
👍