Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Embedding Explainable AI in NHS Clinical Safety: The Explainability-Enabled Clinical Safety Framework (ECSF)

Created by
  • Haebom
Category
Empty

저자

Robert Gigiu

개요

본 논문은 인공지능(AI)이 NHS(National Health Service) 워크플로우에 통합되면서 발생하는, 기존의 임상 안전 기준과의 충돌 문제를 해결하기 위한 '설명가능성 기반 임상 안전 프레임워크(ECSF)'를 제안한다. DCB0129 및 DCB0160과 같은 기존 규제는 AI의 투명성, 해석 가능성, 모델 드리프트에 대한 증거를 제공하지 못하는 문제를 해결하고자, 설명가능성을 DCB0129/0160 수명주기에 통합하여 임상 안전 책임자가 해석 가능성 출력을 구조화된 안전 증거로 활용할 수 있도록 한다. 이를 위해, DCB 조항을 Good Machine Learning Practice, NHS AI Assurance, T.E.S.T. 프레임워크 및 EU AI Act의 원칙에 매핑하고, 글로벌 투명성, 케이스 수준 해석 가능성, 임상의 사용성, 추적 가능한 의사 결정 경로, 장기적 해석 가능성 모니터링의 5가지 체크포인트를 제시한다. SHAP, LIME 등 설명 가능성 기법을 DCB 아티팩트에 매핑하여, 설명 가능성을 임상 안전 보장의 핵심 요소로 재구성한다.

시사점, 한계점

시사점:
AI의 확률적 행동과 기존 임상 안전 기준 사이의 격차를 해소하는 프레임워크 제시
DCB0129/0160 규제 내에서 설명가능성을 통합하여 규제 준수 용이성 확보
설명가능성 기법을 활용한 AI 시스템의 안전성 및 신뢰성 향상
Good Machine Learning Practice, EU AI Act, NHS AI Assurance 등 다양한 규제 및 프레임워크와의 정합성 확보
한계점:
ECSF의 실제 임상 환경 적용 및 효과에 대한 추가 연구 필요
제시된 설명가능성 기법의 한계 및 추가적인 기법 개발 필요
ECSF의 지속적인 업데이트 및 진화 필요성
다양한 AI 모델 및 의료 환경에 대한 ECSF의 적용 가능성 검토 필요
👍