Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Beyond SHAP and Anchors: A large-scale experiment on how developers struggle to design meaningful end-user explanations

Created by
  • Haebom

저자

Zahra Abba Omar, Nadia Nahar, Jacob Tjaden, Ines M. Gilles, Fikir Mekonnen, Jane Hsieh, Christian Kastner, Alka Menon

개요

본 논문은 현대 머신러닝 모델의 불투명성으로 인한 신뢰, 감독, 안전 및 인간 존엄성에 대한 우려를 다룹니다. 설명 가능성 방법이 모델 이해에 도움을 주지만, 개발자가 사용자에게 이해 가능하고 목적에 효과적인 설명을 설계하는 것은 여전히 어렵습니다. 124명의 참가자를 대상으로 한 대규모 실험을 통해 개발자가 최종 사용자에게 설명을 제공하는 방식, 직면하는 어려움, 특정 정책이 그들의 행동을 얼마나 지도하는지 조사했습니다. 실험 결과, 대부분의 참가자는 양질의 설명을 생성하고 제공된 정책을 준수하는 데 어려움을 겪었으며, 정책 지침의 성격과 구체성은 효과에 거의 영향을 미치지 않았습니다. 이는 비기술적 이해관계자의 요구를 상상하고 예측하지 못했기 때문이라고 주장하며, 인지 과정 이론과 사회적 상상력을 바탕으로 교육적 개입을 권장합니다.

시사점, 한계점

시사점: 현대 머신러닝 모델의 설명 가능성에 대한 어려움과 개발자의 정책 준수 어려움을 실증적으로 보여줌. 비기술적 이해관계자의 요구를 고려한 교육적 개입의 필요성 제시.
한계점: 실험 참가자의 특징(개발자)에 국한된 결과. 다양한 유형의 머신러닝 모델 및 응용 분야에 대한 일반화의 제한. 정책 지침의 효과성에 대한 추가적인 연구 필요.
👍