Este artículo presenta un conjunto de datos de resultados de investigación de usuarios sobre la comprensibilidad de algoritmos de inteligencia artificial explicable (XAI). Los participantes, seleccionados entre 149 candidatos, se dividieron en tres grupos: expertos en micología (DE), estudiantes con formación en ciencia de datos y visualización (IT) y estudiantes de ciencias sociales y humanidades (SSH). El contenido principal del conjunto de datos consiste en 39 transcripciones de entrevistas en las que se les pidió a los participantes una serie de tareas y preguntas relacionadas con la interpretación de explicaciones para las decisiones de un modelo de aprendizaje automático entrenado para distinguir entre hongos comestibles y no comestibles. Las transcripciones contienen datos adicionales como visualizaciones de las explicaciones presentadas al usuario, los resultados de un análisis de temas, recomendaciones para mejorar las explicaciones proporcionadas por los participantes y los resultados de una encuesta inicial que proporciona información sobre el conocimiento del dominio y las habilidades de análisis de datos de los participantes. Se realizó un etiquetado manual de las transcripciones para la coincidencia automática entre el texto y otros datos relacionados con una parte específica. Dado el rápido desarrollo de las tecnologías XAI, la necesidad de una evaluación cualitativa multidisciplinaria de la explicabilidad es uno de los temas emergentes en la comunidad. Este conjunto de datos ofrece una amplia gama de posibilidades para el análisis de los datos recopilados, así como para la replicación de la investigación.