Sign In

Task-Agnostic Attacks Against Vision Foundation Models

Created by
  • Haebom
Category
Empty

저자

Brian Pulfer, Yury Belousov, Vitaliy Kinakh, Teddy Furon, Slava Voloshynovskiy

개요

본 논문은 기존 머신러닝 보안 연구가 주로 특정 하위 작업에 국한된 공격에 초점을 맞춘 것과 달리, 다양한 하위 작업에 공통 백본 아키텍처를 공유하는 사전 훈련된 비전 기반 모델에 대한 공격을 연구합니다. 특히, 기반 모델에서 얻은 특징 표현을 최대한 방해하여 작업과 무관한 적대적 예시를 생성하는 일반적인 프레임워크를 제안합니다. 여러 인기 있는 비전 기반 모델의 특징 표현 보안을 평가하고, 다양한 하위 작업에 대한 공격의 영향과 모델 간 전이 가능성을 측정합니다.

시사점, 한계점

시사점: 사전 훈련된 비전 기반 모델의 보안 취약성을 다양한 하위 작업에 걸쳐 포괄적으로 평가하는 새로운 프레임워크를 제시합니다. 기존의 작업 특화적 공격과 달리, 작업과 무관한 적대적 예시 생성을 통해 기반 모델 자체의 취약성을 드러냅니다. 이는 다양한 애플리케이션에 대한 보안 강화 전략 수립에 중요한 시사점을 제공합니다.
한계점: 제안된 프레임워크의 효과는 특정 기반 모델과 하위 작업에 따라 달라질 수 있습니다. 모든 유형의 기반 모델과 하위 작업에 대한 일반화 가능성을 더욱 연구해야 합니다. 또한, 실제 환경에서의 공격 성공률과 방어 전략에 대한 연구가 추가적으로 필요합니다.
👍