본 논문은 두 개의 학습된 표현 간의 차이점을 발견하고 시각화하는 방법을 제안하여, 모델 비교를 더욱 직접적이고 해석 가능하게 만든다. Representational Differences Explanations (RDX)라고 불리는 이 방법은 개념적 차이점이 알려진 모델들을 비교하는 데 사용되어 기존의 설명 가능한 AI (XAI) 기술이 실패하는 부분에서 의미 있는 구분을 찾아낸다. ImageNet 및 iNaturalist 데이터셋의 어려운 부분에 대한 최첨단 모델에 적용하여, RDX는 통찰력 있는 표현 차이와 데이터의 미묘한 패턴을 드러낸다.