본 논문은 대규모 언어 모델(LLM)이 생성하는 환각(hallucination), 즉 구문적으로는 타당하지만 사실적 근거가 없는 진술을 탐지하고 설명하는 신경상징적 프레임워크인 KEA(Kernel-Enriched AI) Explain을 제시합니다. KEA는 LLM 출력에서 생성된 지식 그래프와 Wikidata 또는 문맥 문서의 실제 데이터를 비교하여 환각을 탐지하고 설명합니다. 그래프 커널과 의미 클러스터링을 사용하여 환각에 대한 설명을 제공하며, 강건성과 해석 가능성을 보장합니다. 개방형 및 폐쇄형 도메인 작업 모두에서 환각 탐지에 경쟁력 있는 정확도를 달성하며, 대조적인 설명을 생성하여 투명성을 높입니다. 이는 고위험 영역에서 LLM의 신뢰성을 향상시키고 정밀도 향상 및 다원적 지식 통합에 대한 후속 연구의 기반을 마련합니다.