Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Beyond SHAP and Anchors: A large-scale experiment on how developers struggle to design meaningful end-user explanations

Created by
  • Haebom

作者

Zahra Abba Omar, Nadia Nahar, Jacob Tjaden, In es M. Gilles, Fikir Mekonnen, Jane Hsieh, Christian K astner, Alka Menon

概要

本論文は、現代の機械学習モデルの不透明性に起因する信頼、監督、安全、および人間の尊厳に関する懸念を扱います。説明可能な方法はモデルを理解するのに役立ちますが、開発者がユーザーにとって理解可能で目的に効果的な説明を設計することは依然として困難です。 124人の参加者を対象とした大規模な実験を通じて、開発者がエンドユーザーに説明を提供する方法、直面する困難、特定のポリシーが彼らの行動をどのように導くかを調査しました。実験の結果、ほとんどの参加者は質の高い説明を作成し、提供された方針に従うことが困難であり、方針ガイドラインの性質と具体性は効果にほとんど影響を与えませんでした。これは、非技術的利害関係者の要求を想像して予測できなかったためであると主張し、認知プロセス理論と社会的想像力に基づいて教育的介入を推奨します。

Takeaways、Limitations

Takeaways:現代の機械学習モデルの説明可能性の難しさと開発者の政策遵守の難しさを実証的に示しています。非技術的利害関係者のニーズを考慮した教育的介入の必要性の提示。
Limitations:実験参加者の特徴(開発者)に限定された結果。様々なタイプの機械学習モデルと応用分野の一般化の制限政策指針の有効性に関するさらなる研究の必要性
👍