Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Data Poisoning Vulnerabilities Across Healthcare AI Architectures: A Security Threat Analysis

Created by
  • Haebom
Category
Empty

저자

Farhad Abtahi, Fernando Seoane, Ivan Pau, Mario Vega-Barbas

개요

헬스케어 AI 시스템은 데이터 포이즈닝에 매우 취약하며, 현재의 방어 및 규제로는 이를 충분히 해결할 수 없다. 4가지 범주(아키텍처 공격, 인프라 공격, 중요 자원 할당 공격, 공급망 공격)에서 8가지 공격 시나리오를 분석한 결과, 100500개의 샘플만으로도 공격자가 헬스케어 AI를 손상시킬 수 있으며, 탐지에는 612개월이 소요되거나 탐지되지 않을 수도 있다. 헬스케어 인프라의 분산된 특성으로 인해 내부자의 공격 진입점이 많으며, HIPAA 및 GDPR과 같은 개인 정보 보호법은 탐지에 필요한 분석을 제한하여 공격자를 보호할 수 있다. 공급망 취약성으로 인해 하나의 손상된 공급업체가 50~200개 기관의 모델을 포이즈닝할 수 있다. 현재의 규제는 적대적 견고성 테스트를 의무화하지 않으며, 연합 학습은 귀속성을 모호하게 하여 위험을 악화시킬 수 있다.

시사점, 한계점

100~500개의 데이터 샘플만으로도 헬스케어 AI 시스템을 손상시킬 수 있음.
탐지 기간이 6~12개월로 길거나, 탐지되지 않을 수 있음.
분산된 헬스케어 인프라는 내부자의 공격 진입점을 증가시킴.
HIPAA 및 GDPR과 같은 개인 정보 보호법이 탐지를 방해할 수 있음.
공급망 취약성으로 인해 광범위한 모델 포이즈닝이 발생할 수 있음.
현재 규제는 적대적 견고성 테스트를 의무화하지 않음.
연합 학습은 귀속성을 모호하게 하여 위험을 악화시킬 수 있음.
적대적 테스트, 앙상블 기반 탐지, 개인 정보 보호 보안 메커니즘, 국제 AI 보안 표준 협력과 같은 다층 방어 시스템이 필요함.
해석 가능한 시스템으로의 전환 및 안전성 보장 필요.
👍