Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

"Even explanations will not help in trusting [this] fundamentally biased system": A Predictive Policing Case-Study

Created by
  • Haebom

저자

Siddharth Mehrotra, Ujwal Gadiraju, Eva Bittner, Folkert van Delden, Catholijn M. Jonker, Myrthe L. Tielman

개요

본 논문은 인공지능(AI) 기반 시스템, 특히 고위험 영역(예: 예측 경찰)에서 사용자의 적절한 신뢰 수준 확보의 중요성을 강조한다. AI 시스템의 설명이 사용자의 신뢰 형성에 미치는 영향을 다양한 설명 유형(텍스트, 시각적, 혼합형)과 사용자 전문성(은퇴 경찰관과 일반 사용자)을 고려하여 실험적으로 분석했다. 실험 결과, 혼합형 설명은 전문가 사용자의 주관적 신뢰도를 높였으나, 더 나은 의사결정으로 이어지지는 않았으며, 어떤 유형의 설명도 적절한 신뢰 형성에 도움이 되지 않았음을 보여준다. 따라서 AI 시스템에 대한 적절한 신뢰 구축을 위한 설명 활용 방식에 대한 재평가와 정책적 권고를 제시한다.

시사점, 한계점

시사점: 고위험 AI 시스템에서 설명의 단순 제공이 적절한 신뢰 형성으로 이어지지 않을 수 있음을 보여줌. 설명 유형과 사용자 전문성에 따라 신뢰 수준에 대한 영향이 다르게 나타남. 적절한 신뢰 구축을 위한 새로운 접근 방식의 필요성을 강조. 고위험 AI 시스템 설계에 대한 정책적 함의 제시.
한계점: 특정 영역(예측 경찰)에 국한된 연구 결과로 일반화에 한계가 있음. 주관적 신뢰도 측정에 의존하여 객관적인 신뢰도 평가가 부족함. 다양한 설명 유형 외 다른 요인(예: AI 시스템의 성능, 사용자의 인지적 편향)에 대한 고려 부족.
👍