यह शोधपत्र प्रतिकूल परीक्षण और ऐसे सुरक्षा उपायों के विकास पर केंद्रित है जो उत्तरदायी एवं सुरक्षित कृत्रिम बुद्धिमत्ता अनुप्रयोगों के निर्माण हेतु हानिकारक डेटा का उपयोग करते हैं। मौजूदा शोध मुख्य रूप से बड़े पैमाने के भाषा मॉडल (एलएलएम) का उपयोग करके बड़े पैमाने पर उच्च-गुणवत्ता वाले कार्य डेटासेट तैयार करने पर केंद्रित है, जिससे महंगे मैन्युअल एनोटेशन से बचा जा सके। हालाँकि, एलएलएम के सुरक्षा संरेखण तंत्र की सीमाओं के कारण, हानिकारक डेटा के संश्लेषण में अभी भी पीढ़ी की विश्वसनीयता और सामग्री विविधता के संदर्भ में चुनौतियाँ हैं। इस अध्ययन में, हम PoisonSwarm का प्रस्ताव करते हैं, जो एक नया हानिकारक डेटा संश्लेषण ढाँचा है जो उच्च सफलता दर बनाए रखते हुए विविध हानिकारक डेटा उत्पन्न करने के लिए एक मॉडल क्राउडसोर्सिंग रणनीति का उपयोग करता है। विशेष रूप से, हम प्रतितथ्यात्मक रूप से समृद्ध सौम्य डेटा को आधार टेम्पलेट के रूप में उत्पन्न करते हैं, प्रत्येक आधार टेम्पलेट को कई अर्थ इकाइयों में विघटित करते हैं, और संश्लेषण की सफलता सुनिश्चित करने के लिए गतिशील मॉडल स्विचिंग के माध्यम से इकाई-दर-इकाई विषाक्तता और अंतिम परिशोधन करते हैं। प्रायोगिक परिणाम प्रदर्शित करते हैं कि PoisonSwarm उच्च मापनीयता और विविधता के साथ विविध प्रकार के हानिकारक डेटा के संश्लेषण में अत्याधुनिक प्रदर्शन प्राप्त करता है।