본 논문은 동적 환경에서 머신러닝 모델의 성능 저하를 야기하는 개념 이동(concept drift)을 설명하는 새로운 방법론을 제시합니다. 기존의 개념 이동 탐지 연구와 달리, 모델의 의사결정 논리가 어떻고 왜 변화하는지 설명하는 데 초점을 맞춥니다. 이를 위해 그룹 기반 반례 설명(GCEs)의 시간적 변화를 분석하여 개념 이동을 설명합니다. GCEs의 클러스터 중심점과 관련 반례 행동 벡터의 이동을 추적하여 모델의 의사결정 경계 및 기저 논리의 구조적 변화를 드러냅니다. 데이터 계층(분포 변화), 모델 계층(예측 불일치), 제안된 설명 계층을 결합한 3계층 프레임워크 내에서 분석을 수행하여 공간적 데이터 변화와 개념 재라벨링과 같은 다양한 근본 원인을 구분할 수 있도록 합니다.