본 논문은 딥러닝 모델의 적대적 공격 취약성에 대한 연구를 다룹니다. 특히, 적대적 훈련이 공격 전이성에 미치는 영향을 분석하여, 적대적 훈련된 모델이 오히려 공격 전이성을 증가시키는 역설적인 현상을 발견했습니다. 이를 확인하기 위해 CNN과 ViT를 포함한 36개의 다양한 모델을 훈련하고 광범위한 전이성 실험을 수행했습니다. 연구 결과는 적대적으로 훈련된 모델이 표준 모델보다 더 효과적으로 공격을 전이시킨다는 것을 보여주며, 새로운 생태계 위험을 제기합니다.