본 논문은 딥 비주얼 모델이 이전 가능한 블랙박스 적대적 공격에 취약하다는 점을 다룹니다. 기존 방법들이 타겟 모델의 학습 데이터셋 접근성이나 클래스 개수 등 블랙박스 가정을 위반하는 사전 정보를 무의식적으로 활용한다는 점을 발견하고, 이로 인해 이전 가능한 블랙박스 공격의 실제 효과가 과대평가되어 왔다고 주장합니다. 따라서, 사전 정보 없이 투명하게 이러한 패러다임을 연구할 수 있는 프레임워크를 제안하고, 타겟 모델 데이터와 클래스 개수에 대한 사전 지식이 공격 성능에 미치는 영향을 분석합니다. 분석 결과를 바탕으로 몇 가지 통찰을 제공하고, 사전 정보가 이전 가능성 점수를 과대평가한다는 것을 보여줍니다. 마지막으로, 질의 기반 공격으로 프레임워크를 확장하고, 효과적인 대리 모델 훈련을 위한 데이터 준비에 새로운 이미지 블렌딩 기법을 제시합니다.