Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Embedding Explainable AI in NHS Clinical Safety: The Explainability-Enabled Clinical Safety Framework (ECSF)

Created by
  • Haebom
Category
Empty

저자

Robert Gigiu

개요

인공지능(AI)은 NHS 워크플로우에 점점 더 많이 내장되고 있지만, AI의 확률적이고 적응적인 행동은 기존 임상 안전 표준을 뒷받침하는 결정론적 가정과 충돌합니다. DCB0129 및 DCB0160은 기존 소프트웨어에 대한 강력한 거버넌스를 제공하지만, 안전 사례, 위험 로그 또는 시장 출시 후 모니터링 내에서 AI 특정 투명성, 해석 가능성 또는 모델 드리프트를 입증하는 방법을 정의하지 않습니다. 본 논문은 해석 가능성을 DCB0129/0160 수명 주기에 통합하는 Explainability-Enabled Clinical Safety Framework (ECSF)를 제안하여 임상 안전 책임자가 규정 준수 경로를 변경하지 않고 해석 가능성 출력을 구조화된 안전 증거로 사용할 수 있도록 합니다. DCB 조항을 Good Machine Learning Practice, NHS AI Assurance 및 T.E.S.T. 프레임워크 및 EU AI Act의 원칙에 매핑하는 상호 규제 합성이 수행되었습니다. 결과 매트릭스는 규제 조항, 원칙, ECSF 체크포인트 및 적절한 설명 가능성 출력을 연결합니다. ECSF는 위험 식별을 위한 글로벌 투명성, 검증을 위한 사례 수준 해석 가능성, 평가를 위한 임상의 사용성, 위험 제어를 위한 추적 가능한 의사 결정 경로, 시장 출시 후 감시를 위한 종단적 해석 가능성 모니터링의 다섯 가지 체크포인트를 도입합니다. SHAP, LIME, Integrated Gradients, saliency mapping, attention 시각화와 같은 기술은 해당 DCB 아티팩트에 매핑됩니다. ECSF는 설명 가능성을 임상 안전 보장의 핵심 요소로 재구성하여 결정론적 위험 거버넌스와 AI의 확률적 행동을 연결하고 GMLP, EU AI Act 및 NHS AI Assurance 원칙과의 정렬을 지원합니다.

시사점, 한계점

시사점:
DCB0129/0160 규정 준수 경로를 변경하지 않고 임상 안전을 위한 해석 가능성을 통합하는 프레임워크 제안.
Good Machine Learning Practice, NHS AI Assurance, EU AI Act와의 정렬을 지원.
글로벌 투명성, 사례 수준 해석 가능성, 임상의 사용성, 추적 가능한 의사 결정 경로, 종단적 해석 가능성 모니터링을 포함하는 ECSF 체크포인트 도입.
SHAP, LIME, Integrated Gradients 등 다양한 설명 가능성 기술을 DCB 아티팩트에 매핑.
한계점:
구체적인 구현 및 실제 NHS 환경에서의 적용 결과에 대한 정보는 논문에 포함되지 않음.
제안된 프레임워크의 효과성을 평가하기 위한 실제 데이터 및 사례 연구 부족.
특정 설명 가능성 기술의 선택 및 적용에 대한 구체적인 지침 부족.
👍