본 논문은 의료 영상 분류를 위한 딥러닝 모델의 적대적 공격 취약성에 초점을 맞추고 있습니다. 기존의 일반적인 적대적 공격 방법론이 임상적 오류의 특징을 충분히 반영하지 못한다는 점을 지적하며, 임상 개념을 활용하여 현실적인 임상 오진 시나리오를 모방하는 개념 기반 보고서 섭동 공격(CoRPA) 프레임워크를 제안합니다. MIMIC-CXR-JPG 데이터셋을 사용한 실험 결과, 기존 공격에 강한 딥러닝 모델도 CoRPA의 임상 중심 섭동에는 취약함을 보이며, 의료 AI 시스템의 도메인 특정 취약성을 해결해야 함을 강조합니다. CoRPA는 의료 AI 모델의 안전하고 신뢰할 수 있는 배포를 위한 기반을 제공합니다.