본 논문은 멀티모달 대규모 언어 모델(MLLM)의 취약성을 다룬다. 텍스트 기반의 제어 회피 공격(jailbreak attack)이 기존 안전 프로토콜에 심각한 위협이 되는 가운데, 이미지와 텍스트의 상호작용을 이용한 통합된 멀티모달 유니버설 제어 회피 공격 프레임워크를 제안한다. 이 프레임워크는 반복적인 이미지-텍스트 상호작용과 전이 기반 전략을 활용하여 유니버설 적대적 접미사와 이미지를 생성한다. LLaVA, Yi-VL, MiniGPT4, MiniGPT-v2, InstructBLIP 등 다양한 MLLM에 대한 평가를 통해, 멀티모달 안전 정렬 문제와 기존 안전 메커니즘의 부적절성을 보여주며, 강력한 멀티모달 안전 조치의 필요성을 강조한다.