본 논문은 대규모 언어 모델(LLM)의 안전성 취약점을 다룬다. 기존 연구가 주로 기술적 전문성을 요구하는 공격 방법에 집중한 반면, 본 논문은 일반 사용자가 유해 행위를 수행하는 데 있어 LLM의 응답이 얼마나 유용한지, 그리고 일반적인 간단한 인간-LLM 상호작용에서 안전 취약성이 존재하는지에 대한 질문을 제기한다. 연구 결과, LLM 응답은 실행 가능하고 정보가 풍부할 때 유해 행위를 가장 효과적으로 촉진하며, 이는 다단계, 다국어 상호작용에서 쉽게 유도될 수 있음을 보여준다. 이러한 통찰력을 바탕으로, 유해 행위를 얼마나 효과적으로 가능하게 하는지 측정하는 jailbreak 지표인 HarmScore와 간단한 다단계, 다국어 공격 프레임워크인 Speak Easy를 제안한다. Speak Easy를 기존 공격 방법에 통합하여, 오픈소스 및 독점 LLM 모두에서 네 가지 안전성 벤치마크에 걸쳐 공격 성공률과 HarmScore가 평균적으로 상당히 증가함을 확인했다. 결론적으로, 악의적인 사용자가 일반적인 상호 작용 패턴을 쉽게 악용할 수 있다는 중요하지만 종종 간과되는 취약성을 밝혀낸다.