본 논문은 딥러닝 시각적 설명에 널리 사용되는 Saliency Map의 목적과 다양한 사용자 질의에 대한 일관성 부족 문제를 해결하기 위해, Reference-Frame x Granularity (RFxG) 분류 체계를 제시한다. 이 체계는 pointwise (특정 예측에 대한 이유)와 contrastive (대안과의 비교) 설명을 구분하는 Reference-Frame과, 세분화된 class-level에서 광범위한 group-level에 이르는 Granularity를 통해 Saliency 설명을 구성한다. 기존 평가 지표의 한계를 지적하고, RFxG 차원 모두에서 설명 품질을 평가하기 위한 4가지 새로운 지표를 제안한다. 또한 10개의 Saliency 방법, 4개의 모델 구조, 3개의 데이터셋을 대상으로 포괄적인 평가 프레임워크를 적용한다. 본 연구는 사용자 의도에 기반한 평가의 중요성을 강조하며, 모델 동작에 충실하면서 인간 이해 및 질문의 복잡성과 일치하는 시각적 설명을 개발하기 위한 개념적 기반과 실용적인 도구를 제공한다.