강화 학습 (RL) 에이전트를 사용하여 적대적 샘플을 생성하는 새로운 공격 알고리즘을 제시합니다. 기존의 독립적인 적대적 기계 학습 (AML) 방법과 달리, RL 기반 접근 방식은 과거 공격 경험을 활용하여 미래 공격의 효과와 효율성을 향상시킵니다. 적대적 샘플 생성을 마르코프 의사 결정 프로세스 (MDP)로 공식화하고, RL의 (a) 효과적이고 효율적인 공격 전략 학습 능력과 (b) 최첨단 AML과의 경쟁 능력을 평가합니다. 이미지 분류 벤치마크에서, 에이전트는 공격 성공률을 최대 13.2%까지 증가시키고, 공격당 희생 모델 쿼리 수를 평균 16.9%까지 감소시킵니다. 또한, 학습 후 미지의 입력에 대해 기존 공격보다 17% 더 높은 성공률을 보입니다.