본 논문은 다양한 입력 데이터(텍스트, 오디오, 이미지, 비디오)를 처리하는 능력이 향상된 대규모 언어 모델(LLM)이 프롬프트 기반 공격에 취약하다는 점을 지적하며, 최초의 음성 기반 멀티모달 LLM 공격인 Flanking Attack을 제안합니다. Flanking Attack은 다양한 입력 유형을 동시에 처리하여 멀티모달 LLM의 방어 메커니즘을 우회합니다. 금지된 프롬프트를 무해한 서술형 프롬프트로 둘러싸는 전략을 사용하며, 공격 성공률을 평가하기 위한 반자동화된 정책 위반 감지 프레임워크를 제시합니다. 실험 결과, Flanking Attack은 최첨단 LLM을 조작하여 허용되지 않은 출력을 생성하며, 7가지 금지 시나리오에서 평균 0.67~0.93의 성공률을 달성했습니다.