대규모 언어 모델(LLM)의 안전 필터를 우회하여 악성 코드 생성을 포함한 다양한 악용 행위를 가능하게 하는 새로운 탈옥 프레임워크를 제시한다. 이 프레임워크는 분산 프롬프트 처리와 반복적인 개선을 통해 안전 조치를 우회하며, 프롬프트 분할, 병렬 처리, 응답 집계, LLM 기반 배심원 평가의 네 가지 모듈로 구성된다. 10가지 사이버 보안 범주에 걸쳐 500개의 악성 프롬프트를 테스트한 결과, 악성 코드 생성 성공률이 73.2%에 달했다. 단일 LLM 판정 방식보다 LLM 배심원 시스템이 더 정확한 평가를 제공하며(단일 판정 93.8% 대 배심원 시스템 73.2%), 분산 아키텍처가 성공률을 12% 향상시킨다는 것을 보여준다.