Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Practical Adversarial Attacks on Stochastic Bandits via Fake Data Injection

Created by
  • Haebom

저자

Qirun Zeng, Eric He, Richard Hoffmann, Xuchuang Wang, Jinhang Zuo

개요

본 논문은 기존의 확률적 밴딧(stochastic bandit)에 대한 적대적 공격이 비현실적인 가정(예: 라운드별 보상 조작, 무한대의 섭동)에 의존하여 실제 시스템과의 관련성이 제한적이라는 점을 지적합니다. 따라서 더 현실적인 위협 모델인 "가짜 데이터 주입(Fake Data Injection)"을 제안합니다. 이 모델은 제한된 수의 유계 가짜 피드백 샘플만 학습자의 기록에 주입할 수 있다는 제약 조건을 반영하며, 합법적인 상호 작용을 시뮬레이션합니다. 본 논문에서는 이 모델 하에서 보상 값에 대한 크기 제약과 데이터 주입 시점 및 빈도에 대한 시간적 제약을 명시적으로 고려하는 효율적인 공격 전략을 설계합니다. 이론적 분석을 통해 제안된 공격이 상한 신뢰 구간(UCB) 및 톰슨 샘플링 알고리즘을 거의 모든 라운드에서 목표 암(arm)을 선택하도록 유도하면서 하위 선형 공격 비용만 발생시킬 수 있음을 보여줍니다. 합성 및 실제 데이터 세트에 대한 실험을 통해 제안된 전략의 효과를 검증하고, 실제 적대적 시나리오에서 널리 사용되는 확률적 밴딧 알고리즘의 취약성을 드러냅니다.

시사점, 한계점

시사점:
현실적인 제약 조건을 고려한 새로운 적대적 공격 모델(가짜 데이터 주입)을 제시하여 기존 연구의 한계를 극복.
UCB 및 톰슨 샘플링 알고리즘의 실제 적대적 환경에서의 취약성을 밝힘.
제한된 자원으로도 효과적인 적대적 공격이 가능함을 보임.
실제 시스템에 대한 적대적 공격의 위험성을 강조.
한계점:
제안된 공격 모델이 모든 유형의 적대적 공격을 포괄하지 못할 수 있음.
특정 알고리즘에 대한 취약성 분석에 국한될 수 있음.
실제 시스템에서의 공격 효과는 시스템의 특성에 따라 달라질 수 있음.
더욱 정교한 방어 기법에 대한 추가 연구가 필요.
👍