인공지능(AI)은 NHS 워크플로우에 점점 더 많이 내장되고 있지만, AI의 확률적이고 적응적인 행동은 기존 임상 안전 표준을 뒷받침하는 결정론적 가정과 충돌합니다. DCB0129 및 DCB0160은 기존 소프트웨어에 대한 강력한 거버넌스를 제공하지만, 안전 사례, 위험 로그 또는 시장 출시 후 모니터링 내에서 AI 특정 투명성, 해석 가능성 또는 모델 드리프트를 입증하는 방법을 정의하지 않습니다. 본 논문은 해석 가능성을 DCB0129/0160 수명 주기에 통합하는 Explainability-Enabled Clinical Safety Framework (ECSF)를 제안하여 임상 안전 책임자가 규정 준수 경로를 변경하지 않고 해석 가능성 출력을 구조화된 안전 증거로 사용할 수 있도록 합니다. DCB 조항을 Good Machine Learning Practice, NHS AI Assurance 및 T.E.S.T. 프레임워크 및 EU AI Act의 원칙에 매핑하는 상호 규제 합성이 수행되었습니다. 결과 매트릭스는 규제 조항, 원칙, ECSF 체크포인트 및 적절한 설명 가능성 출력을 연결합니다. ECSF는 위험 식별을 위한 글로벌 투명성, 검증을 위한 사례 수준 해석 가능성, 평가를 위한 임상의 사용성, 위험 제어를 위한 추적 가능한 의사 결정 경로, 시장 출시 후 감시를 위한 종단적 해석 가능성 모니터링의 다섯 가지 체크포인트를 도입합니다. SHAP, LIME, Integrated Gradients, saliency mapping, attention 시각화와 같은 기술은 해당 DCB 아티팩트에 매핑됩니다. ECSF는 설명 가능성을 임상 안전 보장의 핵심 요소로 재구성하여 결정론적 위험 거버넌스와 AI의 확률적 행동을 연결하고 GMLP, EU AI Act 및 NHS AI Assurance 원칙과의 정렬을 지원합니다.