Cette page résume et organise les publications en intelligence artificielle du monde entier. Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif. Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.
Cet article aborde le problème du taux d'erreur de la pire classe plutôt que du taux d'erreur moyen pour toutes les classes. Par exemple, pour une tâche de classification à trois classes avec des taux d'erreur par classe de 10 %, 10 % et 40 %, le taux d'erreur moyen est de 20 %, mais le taux d'erreur de la pire classe est de 40 %. Dans de nombreuses applications, le taux d'erreur de la pire classe est une mesure importante. Dans une tâche de classification d'images médicales, il est inacceptable que la classe des tumeurs bénignes ait un taux d'erreur de 40 %, tandis que les classes bénignes et saines ont des taux d'erreur de 10 %. Pour éviter le surapprentissage lors de la minimisation du taux d'erreur de la pire classe à l'aide de réseaux de neurones profonds (DNN), cet article présente une formulation du problème qui fixe une limite au lieu de rendre le taux d'erreur de la pire classe nul. De plus, nous proposons une technique de boosting qui regroupe les DNN afin de limiter précisément le taux d'erreur de la pire classe. Nous présentons des limites pour les taux d'erreur de la pire classe pour l'apprentissage et la généralisation, et les résultats expérimentaux montrent que l'algorithme proposé réduit le taux d'erreur du test de la pire classe tout en évitant le surapprentissage. Le code source peut être trouvé à https://github.com/saito-yuya/Bounding-the-Worst-class-error-A-Boosting-Approach .