Este artículo propone un nuevo marco para mejorar el error de calibración esperado (ECE) basado en lógica subjetiva para evaluar la fiabilidad de las redes neuronales. Las métricas existentes, como la exactitud y la precisión, presentan limitaciones para reflejar adecuadamente la confianza, la seguridad y la incertidumbre, y en particular, no abordan el problema del exceso de confianza. El método propuesto agrupa las probabilidades predichas y mide exhaustivamente la confianza, la desconfianza y la incertidumbre mediante operadores de fusión adecuados. Los resultados experimentales, utilizando los conjuntos de datos MNIST y CIFAR-10, demuestran una mayor fiabilidad tras la calibración. Este marco proporciona interpretabilidad y una evaluación precisa de los modelos de IA en áreas sensibles como la atención médica y los sistemas autónomos.