Cet article présente un nouveau cadre permettant de quantifier la fiabilité des réseaux neuronaux dans des applications critiques où la confiance et l'incertitude jouent un rôle crucial dans la prise de décision. Les indicateurs de performance traditionnels tels que l'exactitude et la précision ne parviennent pas à saisir ces aspects, en particulier lorsque le modèle est trop confiant. À cette fin, nous proposons un cadre permettant de quantifier la fiabilité des réseaux neuronaux en intégrant la logique subjective à l'évaluation de l'erreur d'étalonnage attendue (ECE). En regroupant les probabilités de prédiction et en fusionnant les opinions à l'aide d'opérateurs de fusion appropriés, nous fournissons une mesure complète de la confiance, de la méfiance et de l'incertitude. Les expériences sur les jeux de données MNIST et CIFAR-10 démontrent l'efficacité de notre méthode, et les résultats après étalonnage montrent une fiabilité améliorée. Le cadre proposé offre une évaluation plus interprétable et plus fine des modèles d'IA, avec des applications potentielles dans des domaines sensibles tels que la santé et les systèmes autonomes.