본 논문은 인공지능(AI)이 NHS(National Health Service) 워크플로우에 통합되면서 발생하는, 기존의 임상 안전 기준과의 충돌 문제를 해결하기 위한 '설명가능성 기반 임상 안전 프레임워크(ECSF)'를 제안한다. DCB0129 및 DCB0160과 같은 기존 규제는 AI의 투명성, 해석 가능성, 모델 드리프트에 대한 증거를 제공하지 못하는 문제를 해결하고자, 설명가능성을 DCB0129/0160 수명주기에 통합하여 임상 안전 책임자가 해석 가능성 출력을 구조화된 안전 증거로 활용할 수 있도록 한다. 이를 위해, DCB 조항을 Good Machine Learning Practice, NHS AI Assurance, T.E.S.T. 프레임워크 및 EU AI Act의 원칙에 매핑하고, 글로벌 투명성, 케이스 수준 해석 가능성, 임상의 사용성, 추적 가능한 의사 결정 경로, 장기적 해석 가능성 모니터링의 5가지 체크포인트를 제시한다. SHAP, LIME 등 설명 가능성 기법을 DCB 아티팩트에 매핑하여, 설명 가능성을 임상 안전 보장의 핵심 요소로 재구성한다.