본 논문은 다국어 및 다모달 기능을 갖춘 대규모 언어 모델(LLM)의 취약성을 탐구합니다. 기존의 적대적 테스트(red-teaming)는 영어에 집중하고 고정된 템플릿 기반 공격을 사용했지만, 본 연구는 코드 혼합(code-mixing)과 음성적 변형(phonetic perturbation)을 활용하여 LLM의 텍스트 및 이미지 생성 작업에 대한 새로운 탈옥(jailbreak) 전략을 제시합니다. 새로운 전략은 기존 전략보다 높은 효과를 보이며, 음성적 오류를 포함한 코드 혼합 프롬프트를 사용하여 텍스트 생성에서 99%, 이미지 생성에서 78%의 공격 성공률을 달성했습니다. 음성적 변형이 단어 토큰화에 영향을 미쳐 탈옥 성공에 기여함을 보여줍니다.