Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Comprender las compensaciones entre equidad y precisión en los modelos de aprendizaje automático: ¿Promover la equidad perjudica el rendimiento?

Created by
  • Haebom

Autor

Junhua Liu, Roy Ka-Wei Lee, Kwan Hui Lim

Describir

Este artículo compara y analiza la imparcialidad entre los modelos de aprendizaje automático (ML) y los evaluadores humanos utilizando datos de 870 solicitantes de admisión a la universidad. Las predicciones se realizaron utilizando tres modelos de ML: XGB, Bi-LSTM y KNN, junto con incrustaciones BERT. Los evaluadores humanos estaban compuestos por expertos de diversos orígenes. Para evaluar la imparcialidad individual, introdujimos una métrica de consistencia que mide la concordancia entre los modelos de ML y las decisiones de los evaluadores humanos. Los resultados del análisis mostraron que los modelos de ML superaron a los evaluadores humanos en un 14,08% frente a un 18,79% en consistencia de imparcialidad. Esto demuestra el potencial de aprovechar el ML para mejorar la imparcialidad en el proceso de admisión manteniendo al mismo tiempo un alto nivel de precisión, y proponemos un enfoque híbrido que combina el juicio humano y los modelos de ML.

Takeaways, Limitations

Takeaways:
Demostramos que los modelos ML pueden tomar decisiones más justas en el proceso de admisión que los evaluadores humanos.
Un enfoque híbrido que combina el juicio humano y los modelos de aprendizaje automático puede mejorar la imparcialidad del proceso de admisión.
Presentamos una nueva métrica de evaluación (métrica de consistencia) para mejorar la equidad de los modelos ML.
Limitations:
El conjunto de datos utilizado se limita a los datos de los solicitantes de admisión a una universidad específica, lo que puede limitar la generalización.
Es posible que no hayamos considerado exhaustivamente todos los tipos de sesgo (algorítmico, basado en datos, cognitivo, subjetivo, etc.).
Además de las métricas de consistencia, es necesario considerar otras métricas de evaluación de equidad.
Los tipos de modelos ML utilizados son limitados y los resultados pueden variar al utilizar diferentes modelos.
👍