본 논문은 설명 가능한 AI (XAI) 분야의 지속적인 개념적 기반 부족과 과학적 설명에 대한 광범위한 담론과의 통합 부족 문제를 해결하기 위해 과학 분야와 과학철학의 설명 전략을 활용하는 기계적 접근 방식을 제시합니다. 깊이 있는 신경망과 같은 불투명한 AI 시스템을 설명하기 위해, 이 논문은 의사결정 과정의 기저 메커니즘을 파악하는 것을 강조합니다. 이는 뉴런, 층, 회로 또는 활성 패턴과 같은 기능적으로 관련된 구성 요소를 식별하고, 분해, 국재화, 재구성을 통해 그 역할을 이해하는 것을 의미합니다. 이미지 인식과 언어 모델링의 개념 증명 사례 연구를 통해 OpenAI와 Anthropic의 최근 연구와 이론적 틀을 연결하며, 기계적 설명을 추구하면 기존의 설명 가능성 기법이 간과할 수 있는 요소를 발견하여 더욱 철저하게 설명 가능한 AI에 기여할 수 있음을 시사합니다.