Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo. La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro. Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.
Este artículo aborda el problema de la tasa de error de la peor clase en lugar de la tasa de error promedio para todas las clases. Por ejemplo, para una tarea de clasificación de tres clases con tasas de error por clase del 10%, 10% y 40%, la tasa de error promedio es del 20%, pero la tasa de error de la peor clase es del 40%. En muchas aplicaciones, la tasa de error de la peor clase es una métrica importante. En una tarea de clasificación de imágenes médicas, es inaceptable que la clase de tumor benigno tenga una tasa de error del 40%, mientras que las clases benigna y sana tienen tasas de error del 10%. Para evitar el sobreajuste en la minimización de la tasa de error de la peor clase utilizando redes neuronales profundas (DNN), este artículo presenta una formulación del problema que establece un límite en lugar de hacer que la tasa de error de la peor clase sea cero. Además, proponemos una técnica de boosting que ensambla DNN para limitar con precisión la tasa de error de la peor clase. Presentamos límites para la tasa de error de la peor clase para el entrenamiento y la generalización, y los resultados experimentales muestran que el algoritmo propuesto reduce la tasa de error de la prueba de la peor clase a la vez que evita el sobreajuste. El código fuente se puede encontrar en https://github.com/saito-yuya/Bounding-the-Worst-class-error-A-Boosting-Approach .