본 논문은 기존의 설명 가능한 인공지능(XAI) 방법들이 사전 훈련된 불투명 모델의 추론과 일관성이 부족하다는 문제점을 지적하고, 이를 해결하기 위한 새로운 접근 방식을 제안합니다. 기존의 후행적(post-hoc) 설명 방법들은 입력 특징 간의 상호 작용을 고려한 논리 규칙 형태의 설명을 생성하지만, 모델의 추론과의 일관성을 보장하지 못하는 경우가 많습니다. 본 논문에서는 범주 이론(category theory)을 활용하여 설명과 불투명 모델의 추론 간의 논리적 함의를 구조적으로 보존하는 "설명 함수자(explaining functor)"를 제안합니다. 합성 벤치마크를 통해 제안된 방법이 모순되거나 불충실한 설명의 생성을 상당히 완화하는 것을 검증하여 개념 증명을 제시합니다.