本論文は、動的環境における機械学習モデルのパフォーマンスの低下を引き起こす概念移動を説明する新しい方法論を提示します。従来の概念移動検出研究とは異なり、モデルの意思決定ロジックがどのように変化しているのかを説明することに焦点を当てます。この目的のために、グループベースの反例説明(GCEs)の時間的変化を分析して概念の動きを説明します。 GCEのクラスタ中心点と関連する反例行動ベクトルの動きを追跡し、モデルの意思決定境界と基底論理の構造的変化を明らかにします。データ層(分布の変化)、モデル層(予測の不一致)、提案された説明層を組み合わせた3階層フレームワーク内で分析を行い、空間的データの変化や概念の再ラベル付けなど、さまざまな根本原因を区別できるようにします。