본 논문은 기존의 saliency map의 한계를 극복하기 위해 전체 데이터셋에 걸쳐 일관된 사람이 이해할 수 있는 개념으로 픽셀을 변환하는 개념 기반 설명 가능한 AI (C-XAI)를 다룹니다. 특히, 모델의 결정을 얼마나 잘 설명하는지를 측정하는 완전성(completeness)에 초점을 맞춥니다. 기존의 Multi-Dimensional Concept Discovery (MCD) 방법은 CNN 잠재 공간을 구별되고 해석 가능한 개념 부분 공간으로 분해하여 완전성을 효과적으로 향상시키지만, 사람이 이해하기 어려운 설명을 생성하는 단점이 있습니다. 따라서 본 논문에서는 Segment Anything Model을 사용하여 개념을 식별하고, 기존 마스킹 방법의 노이즈를 줄이기 위한 CNN 특정 입력 마스킹 기법을 구현하는 Human-Understandable Multi-dimensional Concept Discovery (HU-MCD)를 제안합니다. 실험과 사용자 연구를 통해 HU-MCD가 기존 C-XAI 방법보다 더 정확하고 신뢰할 수 있는 설명을 제공함을 보여줍니다. 소스 코드는 깃허브에 공개되어 있습니다.