Cet article propose un nouveau cadre pour expliquer les décisions des systèmes d'IA dans des environnements incertains caractérisés par des informations incomplètes et des modèles probabilistes. Nous nous concentrons sur la génération de deux types d'explications : les explications monolithiques et les explications de réconciliation de modèles. Les explications monolithiques fournissent leurs propres justifications à l'explanandum, tandis que les explications de réconciliation de modèles prennent en compte la connaissance que l'utilisateur a du destinataire de l'explication. Les explications monolithiques intègrent l'incertitude en augmentant la probabilité de l'explanandum grâce à la logique probabiliste. Les explications de réconciliation de modèles étendent une variante logique du problème de réconciliation de modèles pour prendre en compte les modèles humains probabilistes, recherchant une explication qui minimise le conflit entre l'explication et le modèle humain probabiliste tout en augmentant la probabilité de l'explanandum. Pour évaluer la qualité des explications, nous présentons des mesures quantitatives du gain explicatif et du pouvoir explicatif. Nous présentons également un algorithme qui calcule efficacement les explications en exploitant la dualité entre les ensembles minimaux de correction et les ensembles minimaux insatisfaisables. Des évaluations expérimentales approfondies sur divers points de référence démontrent l’efficacité et l’évolutivité de notre approche pour générer des explications dans des conditions d’incertitude.