[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Quantification de l'erreur d'étalonnage dans les réseaux neuronaux modernes grâce à une théorie fondée sur des preuves

Created by
  • Haebom

Auteur

Koffi Ismaël Ouattara

Contour

Cet article présente un nouveau cadre permettant de quantifier la fiabilité des réseaux neuronaux dans des applications critiques où la confiance et l'incertitude jouent un rôle crucial dans la prise de décision. Les indicateurs de performance traditionnels tels que l'exactitude et la précision ne parviennent pas à saisir ces aspects, en particulier lorsque le modèle est trop confiant. À cette fin, nous proposons un cadre permettant de quantifier la fiabilité des réseaux neuronaux en intégrant la logique subjective à l'évaluation de l'erreur d'étalonnage attendue (ECE). En regroupant les probabilités de prédiction et en fusionnant les opinions à l'aide d'opérateurs de fusion appropriés, nous fournissons une mesure complète de la confiance, de la méfiance et de l'incertitude. Les expériences sur les jeux de données MNIST et CIFAR-10 démontrent l'efficacité de notre méthode, et les résultats après étalonnage montrent une fiabilité améliorée. Le cadre proposé offre une évaluation plus interprétable et plus fine des modèles d'IA, avec des applications potentielles dans des domaines sensibles tels que la santé et les systèmes autonomes.

Takeaways, Limitations_

Takeaways:
Nous présentons un nouveau cadre qui permet une évaluation plus sophistiquée de la fiabilité des réseaux neuronaux en tirant parti de la logique subjective.
Surmonter les limites des indicateurs existants et prendre en compte de manière globale la confiance, la méfiance et l’incertitude.
Validation de l'efficacité et de la fiabilité améliorée après correction par des expériences sur les ensembles de données MNIST et CIFAR-10.
Contribue à améliorer la fiabilité des modèles d'IA dans des domaines sensibles tels que les systèmes médicaux et de conduite autonome.
Limitations:
Des recherches supplémentaires sont nécessaires sur les performances de généralisation du cadre proposé.
Des expériences supplémentaires sur différents ensembles de données et modèles sont nécessaires.
Des recherches supplémentaires sont nécessaires sur le paramétrage et l’optimisation de la logique subjective.
Des vérifications supplémentaires de l’applicabilité et de l’efficacité dans les applications du monde réel sont nécessaires.
👍