MetaExplainer est un framework symbolique neuronal qui génère des explications centrées sur l'utilisateur. Il génère des explications en langage naturel adaptées aux questions des utilisateurs grâce à un processus en trois étapes : décomposition des questions par LLM, génération de recommandations système par des méthodes d'explication de modèle, et synthèse des résultats des explications. Il s'appuie sur une ontologie d'explication pour guider le LLM et les méthodes d'explication, et prend en charge différents types d'explication (contrastive, contrefactuelle, fondée sur des preuves, basée sur des cas et basée sur des données). Les résultats d'évaluation utilisant l'ensemble de données PIMA sur le diabète indien ont montré un score F1 de reconstruction des questions de 59,06 %, une fidélité d'explication du modèle de 70 % et une utilisation du contexte de synthèse en langage naturel de 67 %. Les études utilisateurs ont confirmé la créativité et l'exhaustivité des explications générées.