Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Exploring the Effect of Explanation Content and Format on User Comprehension and Trust in Healthcare

Created by
  • Haebom

저자

Antonio Rago, Bence Palfi, Purin Sukpanichnant, Hannibal Nabli, Kavyesh Vivek, Olga Kostopoulou, James Kinross, Francesca Toni

개요

본 논문은 암 위험 예측 도구인 QCancer를 예시로, 의료 분야 AI 도구의 설명 가능성에 대한 연구를 진행했습니다. SHAP과 Occlusion-1이라는 두 가지 설명 방법과 차트(SC, OC) 및 텍스트(OT) 형식을 사용하여 일반인(환자)과 의대생(의료 종사자)을 대상으로 실험을 수행했습니다. 실험 결과, Occlusion-1이 SHAP보다 주관적인 이해도와 신뢰도가 높았지만, 이는 텍스트 형식(OT)에 대한 선호도 때문인 것으로 나타났습니다. 즉, 설명 내용보다는 형식이 사용자의 이해와 신뢰에 더 큰 영향을 미친다는 것을 보여주었습니다.

시사점, 한계점

시사점:
의료 AI 도구의 설명 가능성을 높이기 위해서는 설명의 내용뿐 아니라 형식 또한 중요함을 강조합니다.
특히, 간단한 설명은 텍스트 형식으로 제공하는 것이 효과적일 수 있음을 시사합니다.
사용자 그룹(환자, 의료 종사자)의 특성을 고려한 설명 형식 선택의 중요성을 보여줍니다.
한계점:
실험 대상이 일반인과 의대생으로 제한되어 실제 의료 현장의 다양한 이해관계자를 반영하지 못할 수 있습니다.
주관적인 이해도와 신뢰도 측정에 의존하여 객관적인 평가가 부족할 수 있습니다.
QCancer라는 특정 도구에 대한 연구 결과이므로 다른 의료 AI 도구에도 일반화하기 어려울 수 있습니다.
단순히 텍스트와 차트 형식만 비교하여 더욱 다양한 형식에 대한 연구가 필요합니다.
👍