Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Fairness-in-the-Workflow: How Machine Learning Practitioners at Big Tech Companies Approach Fairness in Recommender Systems

Created by
  • Haebom

作者

Jing Nathan Yan, Emma Harvey, Junxiong Wang, Jeffrey M. Rzeszotarski, Allison Koenecke

概要

本論文は、大規模技術企業内の推薦システム(RS)の実務者の業務フローを半構造化された面接研究(N=11)を通じて調査し、技術チームが内部的に、そして他のチーム(法律、データ、公平性チーム)とのコラボレーションを通じて公平性をどのように考慮するかに焦点を当てています。高いリスクのある分野に広く配布された推薦システムが社会に大きな影響を及ぼす可能性がある偏向に脆弱であることを認識し、公平性を既存のRS業務フローに統合する際の主な課題(様々な利害関係者とダイナミックな公平性の考慮事項を探索する際、特にRSの文脈で公平性を定義し、公正性作業を行う。最後に、HCI研究者や実務家を含むRSコミュニティのための実行可能な推奨事項を提示します。

Takeaways、Limitations

Takeaways:
推薦システムの公平性問題に対する現実的なアプローチを提示する。
実務者の観点から、公平性統合の難しさと解決策を提示します。
さまざまな利害関係者とのコラボレーションとコミュニケーションの重要性を強調します。
HCIの研究者と実務家に実行可能な推奨事項を提供します。
Limitations:
面接対象が11人で標本サイズが小さく、一般化に限界があります。
特定の技術会社に限られた研究結果なので、他の組織への一般化には注意が必要です。
公平性の定義と測定に関する具体的な方法論の提示は欠けている。
👍