본 논문은 설명 가능한 AI (XAI) 연구의 개념적 기반 부족과 과학적 설명에 대한 광범위한 담론과의 통합 부족을 지적하며, 다양한 과학 및 과학철학 문헌의 설명 전략을 활용하여 이러한 간극을 메우는 새로운 XAI 연구를 제시한다. 특히 심층 학습 시스템의 기능적 구성을 설명하기 위한 기계론적 전략을 제시하며, 이는 불투명한 AI 시스템의 설명을 위해 의사결정을 주도하는 메커니즘을 식별하는 것을 포함한다. 심층 신경망의 경우, 뉴런, 계층, 회로 또는 활성화 패턴과 같은 기능적으로 관련된 구성 요소를 식별하고 분해, 국재화 및 재구성을 통해 그 역할을 이해하는 것을 의미한다. 이미지 인식 및 언어 모델링의 개념 증명 사례 연구를 통해 이러한 이론적 접근 방식을 OpenAI 및 Anthropic과 같은 AI 연구소의 최신 연구와 연결하며, 모델 구성에 대한 체계적인 접근 방식은 개별 설명 가능성 기법이 간과할 수 있는 요소를 밝혀내어 더욱 철저하게 설명 가능한 AI를 촉진할 수 있음을 제안한다.