この論文は、大規模な言語モデル(LLM)が生成する幻覚(hallucination)、すなわち構文的には妥当だが事実上の根拠のない文を検出し説明する神経象徴的なフレームワークであるKER(Kernel-Enriched AI)Explainを提示します。 KEAは、LLM出力から生成された知識グラフとWikidataまたは文脈文書の実際のデータを比較して、幻覚を検出して説明します。グラフカーネルとセマンティッククラスタリングを使用して幻覚の説明を提供し、堅牢性と解釈の可能性を保証します。オープンとクローズの両方のドメイン操作でサイケデリックな検出に競争力のある精度を達成し、対照的な説明を作成して透明性を高めます。これは、高リスク領域におけるLLMの信頼性を向上させ、精度の向上と多元的知識の統合に関するその後の研究の基礎を築く。