MetaExplainer es un marco simbólico neuronal que genera explicaciones centradas en el usuario. Genera explicaciones en lenguaje natural adaptadas a las preguntas del usuario mediante un proceso de tres pasos: descomposición de preguntas mediante LLM, generación de recomendaciones del sistema mediante métodos de explicación de modelos y resumen de los resultados de la explicación. Utiliza una ontología de explicación para guiar LLM y los métodos de explicación, y admite varios tipos de explicación (contrastiva, contrafactual, basada en evidencia, basada en casos y basada en datos). Los resultados de la evaluación con el conjunto de datos de diabetes india PIMA demostraron una puntuación F1 en la reconstrucción de preguntas del 59,06 %, una fidelidad de la explicación de modelos del 70 % y un uso del contexto de síntesis de lenguaje natural del 67 %. Los estudios de usuarios confirmaron la creatividad y la exhaustividad de las explicaciones generadas.