本論文では、機械学習モデルの公平性を確保するためにShapley valueを活用する新しい前処理フレームワークであるFairSHAPを紹介します。 FairSHAPは、Shapley valueベースの解釈可能な特性重要度測定手法を使用して、不公平性を引き起こすトレーニングデータのインスタンスを識別し、機密グループ間のインスタンスレベルマッチングを通じて体系的に修正します。このプロセスは、データの整合性とモデルの精度を維持しながら、差別的なリスクなどの個々の公平性指標を改善します。 FairSHAPは、さまざまな表形式データセットで人口統計的同等性と機会均等性を大幅に改善し、最小限のデータ変動で公平性向上を達成し、場合によっては予測性能を向上させます。 FairSHAPは、モデルに依存しない透明な方法で、既存の機械学習パイプラインに簡単に統合され、偏向の原因に関する実行可能な洞察を提供します。