Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

The Butterfly Effect in Pathology: Exploring Security in Pathology Foundation Models

Created by
  • Haebom

저자

Jiashuai Liu, Yingjia Shang, Yingkang Zhan, Di Zhang, Yi Niu, Dong Wei, Xian Wu, Zeyu Gao, Chen Li, Yefeng Zheng

개요

본 논문은 병리학 기반 모델의 보안 취약성, 특히 적대적 공격에 대한 첫 번째 체계적인 조사를 제시합니다. 전체 슬라이드 이미지(WSI) 분석을 위한 병리학 기반 모델에 대한 적대적 공격에 대한 "국소적 변화로 인한 전역적 영향" 원칙을 도입하고, 하위 작업 레이블 접근 없이 작동하는 레이블 없는 공격 프레임워크를 제안합니다. 네 가지 기존의 화이트박스 공격 방법을 수정하고 WSI의 특성에 기반한 변화 예산을 재정의하여 세 가지 대표적인 병리학 기반 모델과 다섯 개의 데이터셋, 여섯 개의 하위 작업에 대한 포괄적인 실험을 수행했습니다. 슬라이드당 0.1%의 패치만 감지할 수 없는 노이즈로 수정했음에도 불구하고, 최악의 경우 최대 20%의 하위 작업 정확도 저하를 야기했습니다. 공격 성공에 영향을 미치는 주요 요소를 분석하고, 패치 수준의 취약성과 의미적 콘텐츠 간의 관계를 탐구하며, 잠재적인 방어 전략에 대한 예비 조사를 수행했습니다. 이러한 결과는 병리학 기반 모델의 적대적 강건성과 안정적인 배포에 대한 향후 연구의 기초를 마련합니다. 코드는 공개적으로 제공됩니다 (https://github.com/Jiashuai-Liu-hmos/Attack-WSI-pathology-foundation-models).

시사점, 한계점

시사점:
병리학 기반 모델의 적대적 공격에 대한 취약성을 최초로 체계적으로 조사.
레이블 없는 적대적 공격 프레임워크 제시 및 효과 입증.
WSI 특성에 맞는 변화 예산 재정의 및 공격 성공률 향상.
공격 성공에 영향을 미치는 요인 분석 및 잠재적 방어 전략 탐색.
향후 병리학 기반 모델의 강건성 및 안정적인 배포 연구에 기여.
한계점:
현재 연구는 화이트박스 공격에만 초점을 맞추고 있음. 블랙박스 또는 그레이박스 공격에 대한 연구가 필요함.
다양한 종류의 병리학 기반 모델과 데이터셋에 대한 추가적인 연구가 필요함.
제시된 방어 전략은 예비적인 수준이며 더욱 심도있는 연구가 필요함.
실제 임상 환경에서의 적용 가능성에 대한 추가 연구가 필요함.
👍