यह शोधपत्र एक नवीन ढाँचा प्रस्तुत करता है जो बहु-टर्न प्रतिकूल "जेलब्रेक" संकेतों को एकल-टर्न क्वेरीज़ में समेकित करता है, जिससे बड़े पैमाने के भाषा मॉडल (LLM) के प्रतिकूल परीक्षण के लिए आवश्यक मैन्युअल प्रयास में उल्लेखनीय कमी आती है। बहु-टर्न मानव जेलब्रेक ने उच्च आक्रमण सफलता दर दर्शाई है, लेकिन इसके लिए महत्वपूर्ण मानव संसाधन और समय की आवश्यकता होती है। प्रस्तावित बहु-टर्न-एकल-टर्न (M2S) विधि (Hyphenize, Numberize, Pythonize) बहु-टर्न वार्तालापों को व्यवस्थित रूप से संरचित एकल-टर्न संकेतों में पुनः स्वरूपित करती है। दोहरावदार अंतःक्रियाओं को समाप्त करने के बावजूद, ये संकेत प्रतिकूल प्रभावकारिता को बनाए रखते हैं और अक्सर उसमें सुधार भी करते हैं। बहु-टर्न मानव जेलब्रेक (MHJ) डेटासेट पर व्यापक मूल्यांकन में, M2S विधि कई अत्याधुनिक LLM पर 70.6% से 95.9% तक की आक्रमण सफलता दर प्राप्त करती है। उल्लेखनीय रूप से, एकल-टर्न संकेत मूल बहु-टर्न आक्रमण से 17.5 प्रतिशत अंकों तक बेहतर प्रदर्शन करते हैं और औसत टोकन उपयोग को आधे से भी अधिक कम कर देते हैं। आगे के विश्लेषण से पता चलता है कि गणनाओं या कोड जैसी संरचनाओं में दुर्भावनापूर्ण अनुरोधों को एम्बेड करने से "संदर्भगत ब्लाइंड स्पॉट्स" का फायदा उठाया जाता है जिससे बुनियादी सुरक्षा उपायों और बाहरी इनपुट/आउटपुट फ़िल्टर, दोनों को दरकिनार कर दिया जाता है। M2S फ्रेमवर्क बहु-दौर की बातचीत को संक्षिप्त, एकल-दौर के संकेतों में बदल देता है, जिससे बड़े पैमाने पर प्रतिकूल परीक्षण के लिए एक मापनीय उपकरण उपलब्ध होता है और आधुनिक LLM सुरक्षा में एक गंभीर कमज़ोरी उजागर होती है।