본 논문은 희생자 모델에 대한 지식, 광범위한 쿼리 또는 훈련 데이터에 대한 접근 없이도 자연어 처리 모델(NLP 모델), 특히 대규모 언어 모델(LLM)을 오도하는 텍스트 적대적 공격인 희생자 데이터 기반 적대적 공격(VDBA)을 제시합니다. 기존 공격의 현실적인 실행 가능성을 제한하는 요소들을 극복하기 위해, 공개적으로 이용 가능한 사전 훈련된 모델과 클러스터링 방법을 기반으로 대체 모델을 개발하여 희생자 텍스트만을 사용하는 공격 방식을 제안합니다. 단일 대체 모델의 의사결정 경계에서의 실패를 완화하기 위해 계층적 대체 모델 설계를 제안하며, 다양한 적대적 예시 생성 방법을 사용하여 유사성과 공격 효과가 더 나은 적대적 예시를 생성하고 선택합니다. Emotion 및 SST5 데이터셋에 대한 실험 결과, VDBA는 최첨단 방법을 능가하며, 공격 쿼리를 0으로 크게 줄이면서 ASR(Attack Success Rate)을 52.08% 향상시켰습니다. 특히, Qwen2 및 GPT 계열과 같은 LLM에 대한 심각한 위협을 제기하며, API에 접근하지 않고도 45.99%의 최고 ASR을 달성하여 고급 NLP 모델이 여전히 심각한 보안 위험에 직면하고 있음을 확인했습니다.