Este artículo presenta Kernel-Enriched AI (KEA) Explain, un marco neurosimbólico para detectar y explicar alucinaciones (declaraciones sintácticamente válidas pero factualmente infundadas) generadas por modelos de lenguaje a gran escala (LLM). KEA detecta y explica alucinaciones comparando el grafo de conocimiento generado a partir de la salida de LLM con datos del mundo real de Wikidata o documentos contextuales. Utiliza kernels de grafos y agrupamiento semántico para proporcionar explicaciones para las alucinaciones, garantizando robustez e interpretabilidad. Logra una precisión competitiva en la detección de alucinaciones en tareas de dominio abierto y cerrado, a la vez que genera explicaciones contrastivas para mejorar la transparencia. Esto mejora la fiabilidad de los LLM en dominios de alto riesgo y sienta las bases para futuras investigaciones sobre la mejora de la precisión y la integración del conocimiento multidisciplinario.