인공지능(AI)이 거의 모든 분야에 적용되고 있지만, 현재 지배적인 딥러닝 방식은 블랙박스 시스템으로, 추론에 대한 설명이 부족하여 신뢰성과 채택에 제약이 있다. 설명 가능한 AI(XAI)는 모델의 의사 결정 과정에 대한 설명을 제공하여 이 문제를 해결하고자 한다. 그러나 설명의 기본적인 개념은 철학적으로 오랫동안 논의되어 왔으며, XAI 방법론에 포함된 가정들은 AI 설명의 타당성 및 해석에 중요한 영향을 미친다. 본 논문에서는 XAI 방법론에 적용된 존재론적 및 인식론적 가정을 조사하고, 작은 기술적 변화가 설명에 대한 근본적인 가정의 중요한 차이로 이어질 수 있음을 보여준다. 또한, 특정 응용 분야에 XAI 방법을 선택할 때 근본적인 onto-epistemological 패러다임을 무시하는 위험성을 강조하고, 다양한 응용 분야에 적합한 XAI 방법을 선택하고 적용하는 방법을 논의한다.