Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Beyond Accuracy, SHAP, and Anchors -- On the difficulty of designing effective end-user explanations

Created by
  • Haebom
Category
Empty

저자

Zahra Abba Omar, Nadia Nahar, Jacob Tjaden, Ines M. Gilles, Fikir Mekonnen, Jane Hsieh, Christian Kastner, Alka Menon

개요

본 논문은 현대 머신러닝 모델의 불투명성으로 인한 신뢰, 감독 및 인간 존엄성에 대한 우려를 다룬다. 설명 가능성 방법이 모델 이해에 도움을 주지만, 개발자가 타겟 사용자에게 이해 가능하고 목적에 효과적인 설명을 설계하는 것은 여전히 어렵다. 본 연구는 124명의 참가자를 대상으로 한 통제된 실험을 통해 당뇨병성 망막증 진단에 사용되는 ML 기반 선별 도구에 대한 설명 설계 과정에서 특정 정책 지침이 개발자에게 어떤 영향을 미치는지 조사했다. 실험 결과, 참가자들은 양질의 설명을 생성하고, 제공된 설명 가능성에 대한 정책 요구 사항을 준수하며, 준수 증거를 제공하는 데 어려움을 겪었다. 이는 특히 비기술적 이해관계자의 요구를 상상하고 예측하는 데 실패했기 때문이라고 주장하며, 인지 과정 이론과 사회적 상상력을 바탕으로 교육적 개입을 권장한다.

시사점, 한계점

시사점: 현행 정책 가이드라인만으로는 개발자들이 머신러닝 모델에 대한 설명을 효과적으로 생성하는 데 충분하지 않다는 것을 보여준다. 비기술적 이해관계자의 요구를 고려한 교육적 개입의 필요성을 강조한다.
한계점: 실험 참가자의 규모가 상대적으로 작다. 특정 ML 모델과 응용 분야(당뇨병성 망막증 진단 도구)에 국한된 연구 결과이므로 일반화에 제한이 있다. 참가자들의 설명 능력 부족의 원인을 단순히 이해관계자의 요구 예측 실패로만 국한하여 설명하는 데 한계가 있다.
👍