# Adversarial Evasion Attacks on Computer Vision using SHAP Values

### 저자

Frank Mollard, Marcus Becker, Florian Roehrbein

### 💡 개요

본 논문은 SHAP 값을 활용하여 컴퓨터 비전 모델에 대한 화이트박스 적대적 회피 공격 방법을 제안합니다. SHAP 값을 통해 개별 입력의 중요도를 정량화하여 모델의 출력 신뢰도를 낮추거나 오분류를 유도하는 공격을 수행합니다. 제안된 SHAP 공격은 Fast Gradient Sign Method(FGSM)와 비교했을 때, 특히 그래디언트 은닉 시나리오에서 더 강건한 오분류를 생성하는 것으로 나타났습니다.

### 🔑 시사점 및 한계

- SHAP 값을 활용한 새로운 적대적 공격 방법론을 제시하여 딥러닝 모델의 취약점을 드러냈습니다.

- 제안된 공격은 인간의 눈으로는 인지하기 어려운 미세한 변화를 통해 알고리즘을 속일 수 있음을 보여줍니다.

- 그래디언트 은닉 환경에서도 효과적인 공격이 가능하다는 점에서 기존 공격 방법론의 한계를 보완할 수 있습니다.

- SHAP 공격의 효과를 더욱 다양한 공격 시나리오와 컴퓨터 비전 모델에 대해 검증하고, 방어 전략을 개발하는 후속 연구가 필요합니다.

---

[PDF 보기](https://arxiv.org/pdf/2601.10587)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
