eXplainable AI (XAI) 분야에서 고차원 추상 개념을 나타내는 임베딩 벡터 공간의 해석성 문제를 해결하는 방법은 부족합니다. 본 논문은 머신러닝 모델의 임베딩 공간에 대한 국소적이고 사후적인 설명을 생성하는 새로운 방법인 Distance Explainer를 제시합니다. RISE의 샐리언시 기반 기법을 적용하여 선택적 마스킹과 거리 순위 마스크 필터링을 통해 두 임베딩 데이터 포인트 간의 거리에 대한 기여 값을 할당합니다. ImageNet과 CLIP 모델을 사용한 실험을 통해 신뢰성, 민감도/강건성, 무작위성 등의 XAI 지표를 사용하여 Distance Explainer를 평가합니다. 실험 결과, 본 방법은 임베딩 데이터 포인트 간 유사성 또는 상이성에 기여하는 특징을 효과적으로 식별하는 동시에 높은 강건성과 일관성을 유지함을 보여줍니다. 또한 마스크 수량 및 선택 전략과 같은 매개변수 조정이 설명 품질에 미치는 영향을 분석합니다. 이 연구는 XAI 연구의 중요한 격차를 해소하고 임베딩 공간을 활용하는 심층 학습 응용 프로그램의 투명성과 신뢰성을 향상시킵니다.