Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Onto-Epistemological Analysis of AI Explanations

Created by
  • Haebom

저자

Martina Mattioli, Eike Petersen, Aasa Feragen, Marcello Pelillo, Siavash A. Bigdeli

개요

인공지능(AI)이 거의 모든 분야에 적용되고 있지만, 현재 지배적인 딥러닝 방식은 블랙박스 시스템으로, 추론에 대한 설명이 부족하여 신뢰성과 채택에 제약이 있다. 설명 가능한 AI(XAI)는 모델의 의사 결정 과정에 대한 설명을 제공하여 이 문제를 해결하고자 한다. 그러나 설명의 기본적인 개념은 철학적으로 오랫동안 논의되어 왔으며, XAI 방법론에 포함된 가정들은 AI 설명의 타당성 및 해석에 중요한 영향을 미친다. 본 논문에서는 XAI 방법론에 적용된 존재론적 및 인식론적 가정을 조사하고, 작은 기술적 변화가 설명에 대한 근본적인 가정의 중요한 차이로 이어질 수 있음을 보여준다. 또한, 특정 응용 분야에 XAI 방법을 선택할 때 근본적인 onto-epistemological 패러다임을 무시하는 위험성을 강조하고, 다양한 응용 분야에 적합한 XAI 방법을 선택하고 적용하는 방법을 논의한다.

시사점, 한계점

시사점:
XAI 방법론 선택 시, 설명의 존재론적 및 인식론적 가정을 고려해야 함.
XAI 방법론의 기술적 변화가 설명에 대한 근본적인 가정의 차이를 야기할 수 있음.
응용 분야에 따라 적절한 XAI 방법론을 선택하고 적용해야 함.
한계점:
논문의 구체적인 XAI 방법론 분석 내용 및 사례 부족.
다양한 응용 분야에 대한 XAI 방법론 선택 및 적용에 대한 구체적인 가이드라인 미흡.
XAI 방법론의 onto-epistemological 가정에 대한 심층적인 논의 부족.
👍