本論文は、知識集約的な作業における大規模言語モデル(LLM)の限界を克服するために、LLMと知識グラフ(GraphRAG)を組み合わせる新しいアプローチを提案します。従来のGraphRAGアプローチの難しさである知識グラフ生成の問題を解決するために、ドメイン固有の概念の洗練されたオントロジーとソース文書の概念ベースの事前分析を通じて三重知識グラフを構築する方法を紹介します。これには、複雑なドメイン固有のオブジェクトをリンクし、関連するテキストセクションに関連付けるプロセスが含まれます。 LLMプロンプト生成は、非マップノード分類問題として定式化され、情報密度、カバレッジ、およびプロンプト長を最適化します。医療分野の実験的評価は、提案された方法がLLMプロンプトの情報密度、適用範囲、配置を最適化し、長さを短縮することで、コストを削減し、より一貫して信頼できるLLM出力を得ることができることを示しています。