Este artículo explora la explicabilidad de las herramientas de IA en el ámbito médico, utilizando como ejemplo QCancer, una herramienta de predicción del riesgo de cáncer. Se realizaron experimentos con pacientes y estudiantes de medicina (profesionales de la salud) utilizando dos métodos de explicación: SHAP y Occlusion-1, en formato gráfico (SC, OC) y texto (OT). Los resultados mostraron que Occlusion-1 mostró mayor comprensión subjetiva y confiabilidad que SHAP, pero esto se debió a una preferencia por el formato de texto (OT). En otras palabras, el formato de la explicación tuvo un mayor impacto en la comprensión y la confianza del usuario que el contenido.