본 논문은 기존 머신러닝 보안 연구가 주로 특정 하위 작업에 국한된 공격에 초점을 맞춘 것과 달리, 다양한 하위 작업에 공통 백본 아키텍처를 공유하는 사전 훈련된 비전 기반 모델에 대한 공격을 연구합니다. 특히, 기반 모델에서 얻은 특징 표현을 최대한 방해하여 작업과 무관한 적대적 예시를 생성하는 일반적인 프레임워크를 제안합니다. 여러 인기 있는 비전 기반 모델의 특징 표현 보안을 평가하고, 다양한 하위 작업에 대한 공격의 영향과 모델 간 전이 가능성을 측정합니다.