본 논문은 기존의 단일 결정 조작에 초점을 맞춘 적대적 공격의 한계를 지적하고, 결정의 시퀀스에서 전체 결정 체인을 하이재킹할 수 있는 새로운 위협을 제시한다. 구체적으로, 단일 방해를 통해 모델의 출력을 여러 미리 정의된 결과로 조작하는 가능성을 보여준다. 이러한 위협을 노출하기 위해, 입력의 의미에 따라 다양한 결과를 유도하는 Semantic-Aware Universal Perturbations (SAUPs)를 제안하고, 효과적인 알고리즘과 새로운 실제 이미지 데이터 세트 RIST를 개발하여 SAUPs의 실질적인 위협을 평가한다. 3개의 멀티모달 대규모 언어 모델에 대한 실험을 통해 SAUPs가 70%의 공격 성공률을 달성함을 입증했다.