この研究は、人工知能(AI)モデルの人種的偏向が人間の採用決定に与える影響を528人の参加者を対象とした実験で分析しました。高/低地位職種16の1,526のシナリオでは、人種(白人、黒人、ヒスパニック、アジア人)に基づいて差別的に偏ったAIモデルと共同して、志願者を評価するようにしました。実験の結果、AIが特定の人種を好む場合、人々もその人種の志願者を最大90%好む傾向がありました。 AIの推薦が低品質であると認識したり、重要ではないと考えても、特定の状況ではAIの偏りの影響を受けることがわかりました。 IAT(暗黙の連想検査)を事前に実施した場合、一般人種-地位固定観念と一致しない志願者を選択する可能性が13%増加しました。