Cet article présente Kernel-Enriched AI (KEA) Explain, un cadre neurosymbolique permettant de détecter et d'expliquer les hallucinations – des énoncés syntaxiquement valides mais factuellement non fondés – générées par des modèles de langage à grande échelle (MLH). KEA détecte et explique les hallucinations en comparant le graphe de connaissances généré par les résultats du LMH avec des données réelles issues de Wikidata ou de documents contextuels. Il utilise des noyaux de graphes et le clustering sémantique pour fournir des explications aux hallucinations, garantissant ainsi robustesse et interprétabilité. Il atteint une précision compétitive dans la détection des hallucinations, tant pour les tâches en domaine ouvert que fermé, tout en générant des explications contrastives pour une plus grande transparence. Cela renforce la fiabilité des LMH dans les domaines à enjeux élevés et pose les bases de futures recherches sur l'amélioration de la précision et l'intégration des connaissances multidisciplinaires.