Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Comprendre les compromis entre équité et précision dans les modèles d’apprentissage automatique : la promotion de l’équité nuit-elle aux performances ?

Created by
  • Haebom

Auteur

Junhua Liu, Roy Ka-Wei Lee, Kwan Hui Lim

Contour

Cet article compare et analyse l'équité entre les modèles d'apprentissage automatique (ML) et les évaluateurs humains à partir des données de 870 candidats à l'admission à l'université. Les prédictions ont été réalisées à l'aide de trois modèles d'apprentissage automatique : XGB, Bi-LSTM et KNN, ainsi que d'intégrations BERT. Les évaluateurs humains étaient composés d'experts d'horizons divers. Pour évaluer l'équité individuelle, nous avons introduit une mesure de cohérence mesurant la concordance entre les modèles d'apprentissage automatique et les décisions des évaluateurs humains. Les résultats de l'analyse ont montré que les modèles d'apprentissage automatique ont surpassé les évaluateurs humains de 14,08 % à 18,79 % en termes de cohérence d'équité. Cela démontre le potentiel de l'apprentissage automatique pour améliorer l'équité du processus d'admission tout en maintenant une grande précision. Nous proposons une approche hybride combinant jugement humain et modèles d'apprentissage automatique.

Takeaways, Limitations

Takeaways:
Nous démontrons que les modèles ML peuvent prendre des décisions plus justes dans le processus d’admission que les évaluateurs humains.
Une approche hybride combinant le jugement humain et les modèles ML peut améliorer l’équité du processus d’admission.
Nous présentons une nouvelle métrique d’évaluation (métrique de cohérence) pour améliorer l’équité des modèles ML.
Limitations:
L'ensemble de données utilisé est limité aux données des candidats à l'admission dans une université spécifique, ce qui peut limiter la généralisabilité.
Il est possible que nous n’ayons pas pris en compte de manière exhaustive tous les types de biais (algorithmiques, basés sur les données, cognitifs, subjectifs, etc.).
Outre les mesures de cohérence, d’autres mesures d’évaluation de l’équité doivent être prises en compte.
Les types de modèles ML utilisés sont limités et les résultats peuvent varier lors de l’utilisation de différents modèles.
👍