Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Understanding Fairness-Accuracy Trade-offs in Machine Learning Models: Does Promoting Fairness Undermine Performance?

Created by
  • Haebom

作者

Junhua Liu, Roy Ka-Wei Lee, Kwan Hui Lim

概要

本論文では、870人の大学入学申請者のデータを使用して、機械学習(ML)モデルと人間評価者の間の公平性を比較分析しました。 XGB、Bi-LSTM、KNN 3つのMLモデルとBERT埋め込みを使用して予測を行い、人間の評価者はさまざまな背景を持つ専門家で構成されています。個々の公平性を評価するために、MLモデルとヒト評価者の間の意思決定の一致を測定する一貫性指標を導入しました。分析の結果、MLモデルは、人間の評価者より14.08%から18.79%の公平性の一貫性が高いことを示しました。これは、高い精度を維持しながら、入学過程でMLを活用して公平性を向上させる可能性を示し、人間判断とMLモデルを組み合わせるハイブリッドアプローチを提案します。

Takeaways、Limitations

Takeaways:
MLモデルは、人間の評価者よりも入学過程でより公正な意思決定を下すことができることを示しています。
人間の判断とMLモデルを組み合わせたハイブリッドアプローチにより、入学プロセスの公平性を向上させることができます。
MLモデルの公平性を向上させるための新しい評価指標(一貫性指標)を提示します。
Limitations:
使用されるデータセットは特定の大学の入学申請者データに限定され、一般化の可能性に制限がある可能性があります。
さまざまな種類のバイアス(アルゴリズム、データファンデーション、認知的、主観的バイアスなど)はすべて包括的に考慮されていない可能性があります。
一貫性指標以外の公平性評価指標をさらに検討する必要がある。
使用されるMLモデルの種類は限られており、他のモデルを使用すると結果が異なる場合があります。
👍