본 논문은 의료 분야에서 인공지능(AI)의 신뢰성과 수용성을 높이는 데 중요한 요소인 설명 가능성에 대한 연구이다. 의료 AI의 해석 가능성에 대한 발전에도 불구하고, 의료 응용 분야에서 설명이 필요한 시점과 정도에 대한 명확한 지침이 부족한 현실을 지적한다. 이에 따라, 설명의 필요성을 네 가지 등급(자기 설명 가능, 반 설명 가능, 비 설명 가능, 새로운 패턴 발견)으로 분류하는 새로운 범주화 시스템을 제안한다. 또한, 설명의 수준이 개별 환자 또는 표본 수준(국소적)인지, 코호트 또는 데이터셋 수준(전역적)인지, 또는 둘 다인지를 안내한다. 이 시스템을 뒷받침하기 위해 평가 프로토콜의 견고성, 전문가 관찰의 변동성, 응용 프로그램의 표현 차원이라는 세 가지 주요 요소를 통합한 수학적 공식을 제시한다. 이 프레임워크는 연구자들이 필요한 설명의 적절한 깊이를 결정하는 실용적인 도구를 제공하여 의료 AI 응용 프로그램이 언제, 어느 정도의 세부 수준으로 설명되어야 하는지에 대한 중요한 질문에 답한다.