본 논문은 대규모 언어 모델(LLM)의 안전성 문제, 특히 '탈옥(jailbreaking)' 공격에 대한 취약성을 해결하기 위해 새로운 자동화된 적대적 테스트 기법인 JBFuzz를 제안합니다. JBFuzz는 소프트웨어 버그 탐지에 사용되는 퍼징(fuzzing) 기법에서 영감을 얻어, 효과적이고 확장 가능한 탈옥 공격을 자동으로 생성합니다. 새로운 시드 프롬프트, 경량 돌연변이 엔진, 그리고 경량이면서 정확한 평가기를 설계하여 효과성과 확장성 문제를 해결했습니다. 실험 결과, JBFuzz는 9개의 널리 사용되는 LLM을 대상으로 다양한 유해/비윤리적 질문에 대해 평균 99%의 성공률로 탈옥에 성공했으며, 평균 60초 이내에 탈옥을 달성하는 높은 효율성을 보였습니다. 이는 최첨단 LLM이 안전성 조정 후에도 탈옥 공격에 취약함을 보여주는 결과입니다.