Este artículo propone un nuevo marco para explicar las decisiones de sistemas de IA en entornos inciertos caracterizados por información incompleta y modelos probabilísticos. Nos centramos en generar dos tipos de explicaciones: explicaciones monolíticas y explicaciones de conciliación de modelos. Las explicaciones monolíticas proporcionan sus propias justificaciones para el explanandum, mientras que las explicaciones de conciliación de modelos consideran el conocimiento del usuario sobre el receptor de la explicación. Las explicaciones monolíticas incorporan la incertidumbre al aumentar la probabilidad del explanandum mediante lógica probabilística. Las explicaciones de conciliación de modelos extienden una variante lógica del problema de conciliación de modelos para considerar modelos humanos probabilísticos, buscando una explicación que minimice el conflicto entre la explicación y el modelo humano probabilístico, a la vez que aumenta la probabilidad del explanandum. Para evaluar la calidad de la explicación, presentamos métricas cuantitativas de ganancia y poder explicativos. También presentamos un algoritmo que calcula eficientemente las explicaciones explotando la dualidad entre los conjuntos mínimos de corrección y los conjuntos mínimos insatisfactorios. Amplias evaluaciones experimentales en diversos puntos de referencia demuestran la eficiencia y la escalabilidad de nuestro enfoque para generar explicaciones en condiciones de incertidumbre.