본 논문은 의료, 금융, 법률과 같이 의사결정이 중요한 영역에서 점점 중요해지고 있는 설명 가능한 인공지능(XAI)에 대해 다룬다. 특히, XAI의 핵심 접근 방식인 반실제(Counterfactual, CF) 설명에 초점을 맞추어, 모델 결과를 다르게 만드는 입력 특징의 최소한의 수정을 제안함으로써 사용자에게 실행 가능한 통찰력을 제공하는 방법을 연구한다. 기존의 CF 생성 방법들이 근접성, 다양성, 강건성 간의 균형을 맞추는 데 어려움을 겪는다는 점을 지적하며, 다양성을 강조하지만 강건성이 부족한 DiCE(Diverse Counterfactual Explanations) 프레임워크의 한계를 극복하기 위해, 다목적 최적화 기법을 통합하여 해석성을 유지하면서 강건성을 향상시킨 DiCE-Extended 프레임워크를 제안한다. Dice-Sørenson 계수를 기반으로 하는 새로운 강건성 지표를 도입하고, 가중 손실 구성 요소 (lambda_p, lambda_d, lambda_r)를 사용하여 근접성, 다양성, 강건성 간의 균형을 개선한다. COMPAS, Lending Club, German Credit, Adult Income 등의 벤치마크 데이터셋과 Scikit-learn, PyTorch, TensorFlow 등 여러 머신러닝 백엔드를 사용하여 실험적으로 검증한 결과, DiCE-Extended는 표준 DiCE에 비해 CF의 유효성, 안정성 및 의사결정 경계와의 정렬이 향상됨을 보여준다. 고위험 응용 분야에서 더 신뢰할 수 있고 해석 가능한 CF를 생성하는 DiCE-Extended의 잠재력을 강조하며, 향후 연구는 적응형 최적화 기법과 도메인별 제약 조건을 탐색하여 실제 시나리오에서 CF 생성을 더욱 향상시킬 수 있음을 시사한다.