본 논문은 AI 시스템의 의사결정에 대한 설명의 필요성을 다루며, 특히 사후적으로만 설명 가능한 의사결정에 초점을 맞춥니다. 반실증적 설명(counterfactual explanation)에서 최적의 설명을 찾는 기준으로 '샘플과의 거리'가 중요하지만, 최근 방법들은 설명의 타당성을 고려하는 과정에서 이 기준을 희생하는 경향이 있습니다. 본 논문에서는 가능성이 높으면서 동시에 샘플과 가까운(close) 희소(sparse)한 설명을 제공하는 시스템을 제시합니다. 여러 가지 바람직한 반실증적 설명의 특징들을 만족하는 가장 가능성 높은 설명을 찾는 과정을 혼합정수 최적화(MIO) 문제로 모델링하고, Sum-Product Network (SPN)을 사용하여 반실증적 설명의 가능성을 추정합니다. 이를 위해 SPN의 MIO 공식화를 제안하며, 이는 독립적인 연구 가치를 지닙니다. 소스 코드는 GitHub에서 공개됩니다.