헬스케어 AI 시스템은 데이터 포이즈닝에 매우 취약하며, 현재의 방어 및 규제로는 이를 충분히 해결할 수 없다. 4가지 범주(아키텍처 공격, 인프라 공격, 중요 자원 할당 공격, 공급망 공격)에서 8가지 공격 시나리오를 분석한 결과, 100500개의 샘플만으로도 공격자가 헬스케어 AI를 손상시킬 수 있으며, 탐지에는 612개월이 소요되거나 탐지되지 않을 수도 있다. 헬스케어 인프라의 분산된 특성으로 인해 내부자의 공격 진입점이 많으며, HIPAA 및 GDPR과 같은 개인 정보 보호법은 탐지에 필요한 분석을 제한하여 공격자를 보호할 수 있다. 공급망 취약성으로 인해 하나의 손상된 공급업체가 50~200개 기관의 모델을 포이즈닝할 수 있다. 현재의 규제는 적대적 견고성 테스트를 의무화하지 않으며, 연합 학습은 귀속성을 모호하게 하여 위험을 악화시킬 수 있다.