Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Is Trust Correlated With Explainability in AI? A Meta-Analysis

Created by
  • Haebom

저자

Zahra Atf, Peter R. Lewis

개요

본 연구는 인공지능(AI) 시스템의 설명가능성이 사용자 신뢰를 높인다는 일반적인 가정에 대해 비판적으로 검토합니다. 90개 연구를 메타 분석하여 AI 설명가능성과 신뢰 간의 관계를 탐구했습니다. 분석 결과, AI 시스템의 설명가능성과 사용자 신뢰 간에는 통계적으로 유의미하지만 중간 정도의 양의 상관관계가 있음을 밝혔습니다. 즉, 설명가능성이 신뢰 구축에 기여하지만, 유일하거나 주된 요인은 아님을 시사합니다. 설명가능한 AI (XAI) 분야에 대한 학문적 기여 외에도, 특히 의료 및 사법과 같은 중요한 영역에서 책임성을 높이고 사용자 신뢰를 증진하는 데 있어 더 넓은 사회기술적 의미를 강조합니다. 알고리즘 편향 및 윤리적 투명성과 같은 문제를 해결함으로써, 공정하고 지속 가능한 AI 채택의 필요성을 강조합니다. 즉각적인 신뢰에만 집중하기보다는, AI 시스템에서 진정하고 지속적인 신뢰성을 육성하는 규범적 중요성을 강조합니다.

시사점, 한계점

시사점: AI 설명가능성이 사용자 신뢰에 긍정적 영향을 미치지만, 유일한 요인은 아님을 밝힘으로써 AI 개발 및 적용에 있어 균형 잡힌 접근 방식의 필요성을 제시합니다. 의료 및 사법과 같은 중요 영역에서의 책임성과 신뢰도 향상에 대한 시사점을 제공합니다. 알고리즘 편향 및 윤리적 투명성 문제 해결의 중요성을 강조합니다. 지속 가능하고 공정한 AI 채택을 위한 방향을 제시합니다. 진정하고 지속적인 신뢰성 확보의 중요성을 강조합니다.
한계점: 본 연구는 기존 연구들의 메타 분석에 기반하여, 연구 설계 및 방법론적 차이에 따른 결과의 제한점이 존재할 수 있습니다. 설명가능성의 정의 및 측정 방법의 다양성으로 인해 결과의 일반화 가능성에 제한이 있을 수 있습니다. 신뢰의 개념 및 측정에 대한 다양한 접근 방식으로 인해 결과 해석의 복잡성이 존재할 수 있습니다.
👍