Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Towards Fine-Grained Interpretability: Counterfactual Explanations for Misclassification with Saliency Partition

Created by
  • Haebom
Category
Empty

저자

Lintong Zhang, Kang Yin, Seong-Whan Lee

개요

어트리뷰션 기반 설명 기법은 시각적 해석 가능성을 높이기 위해 주요 패턴을 포착하지만, 이러한 패턴은 세분화된 작업, 특히 모델 오분류의 경우에 필요한 세분성을 종종 결여한다. 이 논문은 이러한 한계를 해결하기 위해 객체 수준 및 부분 수준의 해석 가능성을 모두 생성하는 세분화된 반사실적 설명 프레임워크를 제안한다. 이 프레임워크는 (1) 모델 오분류에 기여하는 세분화된 특징과 (2) 지배적인 국소 특징이 반사실적 조절에 영향을 미치는 위치라는 두 가지 근본적인 질문에 답한다. 올바르게 분류된 샘플과 오분류된 샘플 간의 관심 영역 내에서 유사성을 정량화하고 구성 요소 기여도를 가중하여 비 생성적 방식으로 설명 가능한 반사실적 설명을 생성한다. 또한, Shapley 값 기여도에 기반한 saliency partition module을 도입하여 지역별 관련성이 있는 특징을 분리한다. 광범위한 실험을 통해 제안된 접근 방식이 세분화된 방법을 능가하며, 더욱 세분화되고 직관적으로 의미 있는 영역을 포착하는 데 우수함을 입증한다.

시사점, 한계점

시사점:
세분화된 특징 수준에서 모델 오분류를 설명하는 해석 가능한 반사실적 설명을 제공한다.
객체 및 부분 수준의 해석 가능성을 모두 제공하여 해석의 깊이를 더한다.
Shapley 값 기반 saliency partition module을 활용하여 지역별 관련 특징을 효과적으로 분리한다.
기존 세분화된 방법보다 우수한 성능을 실험적으로 입증했다.
한계점:
논문에서 구체적인 한계점은 명시되지 않음.
👍