본 논문은 반복적인 프롬프트 수정 기법을 활용하여 대규모 언어 모델(LLM)의 윤리적 및 보안 제약을 우회하는 공격 기법을 제시합니다. GPT-3.5, GPT-4, LLaMa2, Vicuna, ChatGLM 등 다양한 LLM을 대상으로, 응답 패턴 분석을 통해 프롬프트를 점진적으로 개선하여 공격 성공률을 높이는 방법을 제안합니다. 설득 전략을 활용하여 악의적인 의도를 유지하면서 프롬프트의 효과를 높였으며, GPT-4와 ChatGLM에서 90%의 높은 공격 성공률을 달성했습니다. 기존 기법(PAIR, PAP)보다 높은 공격 성공률을 보였고, GCG 및 ArtPrompt와 유사한 성능을 나타냈습니다.