Cet article étudie comment l'estimation de l'incertitude peut être utilisée pour améliorer la sécurité et la fiabilité des systèmes d'apprentissage automatique (ML), de plus en plus déployés dans des domaines à haut risque et critiques en termes de confiance. Nous nous concentrons plus particulièrement sur la prédiction sélective, où les modèles s'abstiennent de faire des prédictions lorsque la confiance est faible. Tout d'abord, nous démontrons que le chemin d'apprentissage du modèle contient de riches signaux d'incertitude qui peuvent être exploités sans altérer l'architecture ni entraîner de perte. En regroupant les prédictions issues de points de contrôle intermédiaires, nous proposons une méthode d'abstention post-hoc légère, compatible avec diverses tâches, évitant le coût des ensembles profonds et offrant des performances de prédiction sélective de pointe. Il est important de noter que cette méthode est entièrement compatible avec la confidentialité différentielle (DP), ce qui nous permet d'étudier l'impact du bruit de confidentialité sur la qualité de l'incertitude. Alors que de nombreuses méthodes se dégradent sous DP, notre approche basée sur les chemins est robuste et introduit un cadre pour des compromis découplés entre confidentialité et incertitude. Nous développons ensuite une décomposition en échantillon fini de l'écart de classification sélective (l'écart par rapport à la courbe d'ajustement de précision de l'oracle) afin d'identifier cinq sources d'erreur interprétables et de clarifier les interventions susceptibles de réduire cet écart. Cela explique pourquoi l'étalonnage seul ne peut corriger les erreurs de classement et suggère une méthode pour améliorer les classements d'incertitude. Enfin, nous démontrons que la manipulation contradictoire des signaux d'incertitude peut masquer des erreurs ou perturber le service tout en maintenant une précision élevée, et nous concevons un mécanisme de défense combinant audit d'étalonnage et inférence vérifiable. Ces contributions font progresser l'apprentissage automatique fiable en améliorant, évaluant et protégeant les estimations d'incertitude, permettant ainsi aux modèles de produire des prédictions précises, mais aussi de savoir quand répondre « Je ne sais pas ».