본 논문은 대규모 언어 모델(LLM)의 안전성을 평가하기 위한 새로운 퍼징 기법인 TurboFuzzLLM을 제시합니다. TurboFuzzLLM은 돌연변이 기반 퍼징을 사용하여 악의적인 응답을 유도하는 효과적인 탈옥 템플릿을 자동으로 생성합니다. 기존 템플릿 기반 공격 기법의 한계를 지적하고, 효율성과 기능성을 향상시킨 퍼징 기법을 통해 GPT-4o 및 GPT-4 Turbo를 포함한 주요 LLM에 대해 95% 이상의 공격 성공률을 달성했습니다. 본 기법은 미지의 악의적인 질문에도 일반화 가능성이 높으며, 프롬프트 공격에 대한 모델 방어 개선에도 기여할 수 있습니다.