본 논문은 심층 시각 모델(DVMs)의 폭넓은 적용에 중요한 요소인 설명 가능성을 향상시키기 위해, 개념 기반 사후 설명 방법을 개선하는 Chain-of-Explanation (CoE) 접근 방식을 제안합니다. CoE는 전역 개념 설명 데이터셋을 자동으로 생성하기 위해 시각적 개념(VCs)의 디코딩 및 설명을 자동화하고, 다의성 문제를 해결하기 위해 개념 다의성 분리 및 필터링 메커니즘을 설계하여 문맥적으로 가장 관련성이 높은 개념 원자를 구분합니다. 또한, 모델 해석 가능성을 측정하는 개념 다의성 엔트로피(CPE)를 제시하고, 결정론적 개념 모델링을 불확실한 개념 원자 분포로 업그레이드합니다. 마지막으로, 개념 회로를 추적하여 DVM의 의사결정 과정에 대한 언어적 지역 설명을 자동으로 생성합니다. GPT-4o 및 인간 기반 실험을 통해 CPE의 효과와 CoE의 우수성을 입증하며, 설명 가능성 점수에서 평균 36%의 개선을 달성했습니다.