Este artículo enfatiza que explicar eficazmente las decisiones de los modelos de aprendizaje automático de caja negra es crucial para el despliegue responsable de sistemas de IA y presenta un marco I-CEE para la IA explicable centrada en el usuario (XAI). I-CEE proporciona a los usuarios un subconjunto de datos de entrenamiento (imágenes de ejemplo), sus explicaciones locales y decisiones del modelo para explicar las decisiones de los modelos de clasificación de imágenes. A diferencia de estudios previos, I-CEE modela la informatividad de las imágenes de ejemplo basándose en la experiencia del usuario, proporcionando diferentes ejemplos para cada usuario. Mediante simulaciones y experimentos con 100 participantes, demostramos que mejora la precisión de la predicción (simplicidad) de las decisiones del modelo para los usuarios.