본 논문에서는 두 학습된 표현 간의 차이점을 발견하고 시각화하는 방법을 제안하여 모델 비교를 더 직접적이고 해석 가능하게 합니다. Representational Differences Explanations (RDX)라 명명된 이 방법은 알려진 개념적 차이를 가진 모델을 비교하는 데 사용되어 기존의 설명 가능한 AI (XAI) 기법이 실패하는 곳에서 의미 있는 차이점을 복구함을 보여줍니다. ImageNet과 iNaturalist 데이터셋의 어려운 하위 집합에 대한 최첨단 모델에 적용하여 RDX는 통찰력 있는 표현 차이와 데이터의 미묘한 패턴을 모두 보여줍니다. 현재 기계 학습의 도구, 즉 사후 XAI 방법은 모델 비교를 효과적으로 지원하는 데 어려움을 겪고 있지만, 본 연구는 모델 표현을 대조하기 위한 효과적이고 설명 가능한 도구를 도입하여 이러한 간극을 해소합니다.