본 논문은 심층 신경망(DNN)의 적대적 예제에 대한 취약성을 다룬다. 특히, 블랙박스 환경에서 기존 적대적 예제의 전이성 한계를 극복하기 위해 입력 전치(input transpose)라는 새로운 방법을 제안한다. 이 방법은 추가적인 연산 비용 없이 기존 적대적 전략의 전이성을 크게 향상시키며, 심지어 적대적 섭동을 추가하지 않더라도 상당한 효과를 보인다. 특정 데이터셋에서는 1도의 회전만으로도 대부분의 적대적 예제가 보이지 않는 모델을 속일 수 있음을 실험적으로 보여주며, 이는 DNN의 저수준 특징 맵에서의 가시적 패턴 변화 때문일 수 있음을 분석한다. 제한 없는 쿼리 조건 하에서 최적의 회전 각도를 찾으면 더욱 향상된 성능을 얻을 수 있을 것으로 예상한다.