본 논문은 설명 가능한 AI(XAI) 방법론에 대한 관심 증가에 따라, 정확한 예측뿐 아니라 모델의 의사결정 근거를 이해하는 데 초점을 맞추고 있다. 특히, 의사결정의 근거를 설명하고 결과를 변경하기 위해 어떤 특징을 얼마나 수정해야 하는지를 보여주는 반례(counterfactual example) 생성에 주목한다. 이를 위해 표 형태의 데이터에 특화된 심층 하이퍼네트워크 기반 분류 모델인 HyConEx를 제안한다. HyConEx는 기존의 설명 가능한 AI 방법론들과 달리, 반례를 생성하는 설명기능과 분류 기능을 하나의 신경망으로 통합하여, 경쟁력 있는 분류 정확도와 적절한 반례 공격 기준을 충족하는 결과를 제시한다. 소스 코드는 공개되어 있다.