Sign In

Concealed Adversarial attacks on neural networks for sequential data

Created by
  • Haebom
Category
Empty

저자

Petr Sokerin, Dmitry Anikin, Sofia Krehova, Alexey Zaytsev

개요

본 논문은 심층 학습 기반 시계열 분석 모델의 취약성을 다룹니다. 기존의 적대적 공격은 시각적으로 쉽게 감지될 수 있다는 한계를 가지고 있으나, 본 논문에서는 인간이나 검출 모델에 의해 감지하기 어려운 은폐된 적대적 공격 방법을 제안합니다. 이를 위해 분류기와 훈련된 판별기 손실의 집계를 최대화하는 방법을 사용하며, 다양한 적대적 공격에 대한 더 넓은 적용 범위를 제공하는 판별기 훈련 절차를 제시합니다. 6개의 UCR 시계열 데이터셋과 4가지 다양한 아키텍처(순환, 합성곱, 상태 공간, 트랜스포머 기반 모델)에 대한 광범위한 벤치마킹을 통해 제안된 공격의 우수성을 입증합니다.

시사점, 한계점

시사점:
은폐된 적대적 공격에 대한 새로운 방법 제시 및 그 효과 입증.
다양한 시계열 모델 아키텍처에 대한 광범위한 실험을 통해 일반성 확보.
현실적인 적대적 공격에 대한 방어의 중요성 강조.
강력하고 은폐된 적대적 공격에 대한 대비책 마련 필요성 제기.
한계점:
제안된 공격의 일반화 성능에 대한 추가 연구 필요.
더욱 다양하고 복잡한 시계열 데이터셋에 대한 실험 필요.
제안된 공격에 대한 효과적인 방어 기법 연구 필요.
👍