[공지사항]을 빙자한 안부와 근황 
Show more

दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

आक्रामक साइबर सुरक्षा एजेंटों के लिए गतिशील जोखिम मूल्यांकन

Created by
  • Haebom

लेखक

बोयी वेई, बेनेडिक्ट स्ट्रोएबल, जियासेन जू, जोई झांग, झोउ ली, पीटर हेंडरसन

रूपरेखा

यह पत्र इस संभावना को उठाता है कि बड़े भाषा मॉडल, जैसे-जैसे वे स्वायत्त प्रोग्रामर के रूप में विकसित होते हैं, जोखिम भरे आक्रामक साइबर संचालनों को स्वचालित कर सकते हैं। मौजूदा अत्याधुनिक मॉडल ऑडिट ऐसे एजेंटों के साइबर सुरक्षा जोखिम की जाँच करते हैं, लेकिन अक्सर वास्तविक दुनिया में विरोधियों को दी जाने वाली स्वतंत्रता पर विचार करने में विफल रहते हैं। विशेष रूप से, संभावित विरोधियों द्वारा मजबूत सत्यापनकर्ताओं और वित्तीय प्रोत्साहनों के माध्यम से आक्रामक साइबर सुरक्षा एजेंटों में क्रमिक रूप से सुधार किया जा सकता है। इसलिए, यह पत्र साइबर सुरक्षा के संदर्भ में विस्तारित ख़तरा मॉडल पर विचार करने की आवश्यकता पर विचार करता है, और एक निश्चित कंप्यूटिंग बजट के भीतर स्टेटफुल और स्टेटलेस वातावरण में विरोधियों को प्राप्त हो सकने वाली स्वतंत्रता की विभिन्न डिग्री पर प्रकाश डालता है। हमारे अध्ययन में, हम दिखाते हैं कि अपेक्षाकृत छोटे कंप्यूटिंग बजट (8 H100 GPU घंटे) के साथ भी, एक विरोधी इंटरकोड CTF में आधार रेखा की तुलना में किसी एजेंट की साइबर सुरक्षा क्षमताओं में 40% से अधिक सुधार कर सकता है। यह एक एजेंट के साइबर सुरक्षा जोखिम का गतिशील तरीके से आकलन करने की आवश्यकता पर प्रकाश डालता है, जिससे एक अधिक यथार्थवादी जोखिम चित्र प्राप्त होता है।

Takeaways, Limitations

Takeaways:
इससे पता चलता है कि बड़े भाषा मॉडल के आधार पर साइबर-हमला एजेंटों के जोखिम का सटीक आकलन करने के लिए एक गतिशील खतरा मॉडल की आवश्यकता है जो प्रतिद्वंद्वी की स्वतंत्रता की डिग्री और पुनरावृत्त सुधार की संभावना को ध्यान में रखता हो।
हम यह प्रदर्शित करके वास्तविक साइबर सुरक्षा खतरों के बारे में जागरूकता बढ़ाते हैं कि विरोधी सीमित कंप्यूटिंग संसाधनों के साथ भी मॉडल के प्रदर्शन में उल्लेखनीय सुधार कर सकते हैं।
हम भविष्य के बड़े पैमाने के भाषा मॉडल के लिए साइबर सुरक्षा जोखिम मूल्यांकन दृष्टिकोण पर पुनर्विचार और सुधार की आवश्यकता पर प्रकाश डालते हैं।
Limitations:
अध्ययन में प्रयुक्त इंटरकोड सीटीएफ वातावरण सभी वास्तविक-विश्व साइबर हमले परिदृश्यों को पूरी तरह से प्रतिबिंबित नहीं कर सकता है।
आगे और अधिक शोध की आवश्यकता है जिसमें अधिक विविध और जटिल हमले परिदृश्यों और बड़े कंप्यूटिंग बजट को ध्यान में रखा जाए।
प्रतिद्वंद्वी के व्यवहार पैटर्न और रणनीतियों का अधिक गहन विश्लेषण आवश्यक है।
👍