Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Exploring the Effect of Explanation Content and Format on User Comprehension and Trust in Healthcare

Created by
  • Haebom

作者

Antonio Rago, Bence Palfi, Purin Sukpanichnant, Hannibal Nabli, Kavyesh Vivek, Olga Kostopoulou, James Kinross, Francesca Toni

概要

本論文では、がんリスク予測ツールであるQCancerを例に、医療分野のAIツールの説明可能性に関する研究を進めました。 SHAPとOcclusion-1の2つの説明方法とチャート(SC、OC)とテキスト(OT)形式を使用して、一般人(患者)と医大生(医療従事者)を対象に実験を行いました。実験の結果、Occlusion-1はSHAPよりも主観的な理解と信頼性が高かったが、これはテキスト形式(OT)の好みによるものであることがわかった。つまり、説明の内容ではなく、形式がユーザーの理解と信頼に大きな影響を与えることを示しました。

Takeaways、Limitations

Takeaways:
医療AIツールの説明の可能性を高めるために、説明の内容だけでなく形式も重要性を強調しています。
特に、簡単な説明は、テキスト形式で提供することが有効であることを示唆している。
ユーザーグループ(患者、医療従事者)の特性を考慮した説明形式の選択の重要性を示します。
Limitations:
実験対象は一般人と医学生に限定され、実際の医療現場のさまざまな利害関係者を反映できない場合があります。
主観的な理解と信頼性の測定に依存して、客観的な評価が不足する可能性があります。
QCancerと呼ばれる特定のツールの研究結果なので、他の医療AIツールにも一般化するのは難しいかもしれません。
単にテキストとチャート形式のみを比較して、より多様な形式の研究が必要です。
👍