Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Fiabilité basée sur l'incertitude : prédiction sélective et déploiement fiable dans l'apprentissage automatique moderne

Created by
  • Haebom

Auteur

Stephan Rabanser

Contour

Cet article étudie comment l'estimation de l'incertitude peut être utilisée pour améliorer la sécurité et la fiabilité des systèmes d'apprentissage automatique (ML), de plus en plus déployés dans des domaines à haut risque et critiques en termes de confiance. Nous nous concentrons plus particulièrement sur la prédiction sélective, où les modèles s'abstiennent de faire des prédictions lorsque la confiance est faible. Tout d'abord, nous démontrons que le chemin d'apprentissage du modèle contient de riches signaux d'incertitude qui peuvent être exploités sans altérer l'architecture ni entraîner de perte. En regroupant les prédictions issues de points de contrôle intermédiaires, nous proposons une méthode d'abstention post-hoc légère, compatible avec diverses tâches, évitant le coût des ensembles profonds et offrant des performances de prédiction sélective de pointe. Il est important de noter que cette méthode est entièrement compatible avec la confidentialité différentielle (DP), ce qui nous permet d'étudier l'impact du bruit de confidentialité sur la qualité de l'incertitude. Alors que de nombreuses méthodes se dégradent sous DP, notre approche basée sur les chemins est robuste et introduit un cadre pour des compromis découplés entre confidentialité et incertitude. Nous développons ensuite une décomposition en échantillon fini de l'écart de classification sélective (l'écart par rapport à la courbe d'ajustement de précision de l'oracle) afin d'identifier cinq sources d'erreur interprétables et de clarifier les interventions susceptibles de réduire cet écart. Cela explique pourquoi l'étalonnage seul ne peut corriger les erreurs de classement et suggère une méthode pour améliorer les classements d'incertitude. Enfin, nous démontrons que la manipulation contradictoire des signaux d'incertitude peut masquer des erreurs ou perturber le service tout en maintenant une précision élevée, et nous concevons un mécanisme de défense combinant audit d'étalonnage et inférence vérifiable. Ces contributions font progresser l'apprentissage automatique fiable en améliorant, évaluant et protégeant les estimations d'incertitude, permettant ainsi aux modèles de produire des prédictions précises, mais aussi de savoir quand répondre « Je ne sais pas ».

Takeaways, Limitations

Takeaways:
Nous présentons une méthode de prédiction post-sélective légère qui exploite le chemin de formation du modèle et atteint des performances de pointe.
Nous présentons une méthode robuste d’estimation de l’incertitude et un cadre d’analyse du compromis entre confidentialité et incertitude, même dans des environnements de confidentialité différentiels.
Nous analysons les sources d’erreurs à travers la décomposition d’échantillons finis d’intervalles de classification sélective et soulignons la nécessité d’améliorer l’ordre d’incertitude.
Présentation d'un mécanisme de défense contre la manipulation hostile.
Limitations:
Des expériences supplémentaires peuvent être nécessaires pour évaluer les performances de généralisation de la méthode proposée.
Des discussions plus approfondies sur l’applicabilité et les contraintes pour des applications spécifiques peuvent être nécessaires.
Une évaluation plus approfondie de l’efficacité réelle des mécanismes de défense contre les attaques adverses pourrait être nécessaire.
👍