Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CoE: Chain-of-Explanation via Automatic Visual Concept Circuit Description and Polysemanticity Quantification

Created by
  • Haebom
Category
Empty

저자

Wenlong Yu, Qilong Wang, Chuang Liu, Dong Li, Qinghua Hu

개요

본 논문은 심층 시각 모델(DVMs)의 폭넓은 적용에 중요한 요소인 설명 가능성을 향상시키기 위해, 개념 기반 사후 설명 방법을 개선하는 Chain-of-Explanation (CoE) 접근 방식을 제안합니다. CoE는 전역 개념 설명 데이터셋을 자동으로 생성하기 위해 시각적 개념(VCs)의 디코딩 및 설명을 자동화하고, 다의성 문제를 해결하기 위해 개념 다의성 분리 및 필터링 메커니즘을 설계하여 문맥적으로 가장 관련성이 높은 개념 원자를 구분합니다. 또한, 모델 해석 가능성을 측정하는 개념 다의성 엔트로피(CPE)를 제시하고, 결정론적 개념 모델링을 불확실한 개념 원자 분포로 업그레이드합니다. 마지막으로, 개념 회로를 추적하여 DVM의 의사결정 과정에 대한 언어적 지역 설명을 자동으로 생성합니다. GPT-4o 및 인간 기반 실험을 통해 CPE의 효과와 CoE의 우수성을 입증하며, 설명 가능성 점수에서 평균 36%의 개선을 달성했습니다.

시사점, 한계점

시사점:
심층 시각 모델의 설명 가능성을 향상시키는 새로운 접근 방식인 CoE 제시.
개념 다의성 문제 해결을 위한 개념 다의성 분리 및 필터링 메커니즘과 CPE 지표 제안.
전역 및 지역적 설명 모두를 자동으로 생성하는 기능 제공.
GPT-4o 및 인간 평가를 통해 CoE의 효과성과 우수성 검증 (설명 가능성 점수 36% 향상).
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 검증 필요.
특정 유형의 심층 시각 모델에만 적용 가능할 수 있는 한계 존재 가능성.
CPE 지표의 보편성 및 다른 설명 가능성 지표와의 비교 분석 필요.
다양한 데이터셋 및 모델에 대한 실험 결과가 더 필요함.
👍