Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Why is plausibility surprisingly problematic as an XAI criterion?

Created by
  • Haebom

저자

Weina Jin, Xiaoxiao Li, Ghassan Hamarneh

개요

본 논문은 설명 가능한 인공지능(XAI)의 평가 및 최적화 기준으로 흔히 사용되는 '타당성(plausibility)'의 문제점을 비판적으로 분석한다. 타당성은 AI 설명의 설득력을 측정하는 기준으로, 일반적으로 특징 국재화 또는 특징 상관관계 측정값으로 정량화된다. 하지만 논문은 인간의 설명을 XAI의 절대적인 기준으로 삼는 것은 설명을 뒷받침하는 필수적인 가정을 무시하는 것이며, 따라서 타당성은 설명 가능성을 측정하는 유효한 기준이 아니라고 주장한다. 타당성을 기준으로 XAI를 평가 및 최적화하는 것은 사용자를 조종하는 오해의 소지가 있는 설명을 증가시키고, AI 시스템에 대한 사용자의 신뢰를 저하시키며, 인간의 자율성을 훼손하고, 인간-AI의 상호 보완적인 작업 수행을 달성하지 못하게 하는 등의 부정적인 결과를 초래한다고 지적한다. 따라서 연구자들은 XAI 평가 및 최적화 기준으로 타당성 사용을 중단하고, 신뢰성, 이해도, 사용자 유용성을 개선하는 새로운 연구 방향을 모색해야 한다고 주장한다.

시사점, 한계점

시사점: XAI 평가 기준으로서 '타당성'의 문제점을 지적하고, 신뢰성, 이해도, 사용자 유용성 및 인간-AI 상호 보완적 작업 수행을 고려한 새로운 XAI 연구 방향 제시.
한계점: '타당성'의 문제점을 상세히 규명하고 대안을 제시하지만, 구체적인 대안적 평가 기준 및 연구 방법론에 대한 자세한 논의는 부족함. 또한, '타당성'의 개념 자체에 대한 다양한 해석과 측정 방법의 차이에 대한 고찰이 상대적으로 부족함.
👍