दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

जंगल में एलएलएम तैनाती के परिदृश्य का अनावरण: एक अनुभवजन्य अध्ययन

Created by
  • Haebom

लेखक

ज़िन्यी होउ, जियाहाओ हान, यांजी झाओ, हाओयू वांग

रूपरेखा

यह पत्र ओपन-सोर्स और वाणिज्यिक फ्रेमवर्क के माध्यम से तैनात बड़े पैमाने पर भाषा मॉडल (एलएलएम) की सुरक्षा कमजोरियों के बड़े पैमाने पर अनुभवजन्य अध्ययन के परिणाम प्रस्तुत करता है। इंटरनेट-व्यापी माप के माध्यम से, हमने 15 फ्रेमवर्क में 320,102 सार्वजनिक रूप से उपलब्ध एलएलएम सेवाओं की पहचान की और 158 अद्वितीय एपीआई एंडपॉइंट निकाले, जिन्हें 12 कार्यात्मक समूहों में वर्गीकृत किया गया। हमारे विश्लेषण से पता चला कि 40% से अधिक एंडपॉइंट्स ने सादे HTTP का उपयोग किया, और 210,000 से अधिक में वैध TLS मेटाडेटा का अभाव था। कुछ फ्रेमवर्क ने अत्यधिक असंगत API एक्सपोज़र प्रदर्शित किए, 35% से अधिक अप्रमाणित API अनुरोधों का जवाब दिया, जिससे संभावित रूप से मॉडल या सिस्टम सूचना लीक हो सकती है।

____T9862_____, Limitations

Takeaways:
एलएलएम सेवाओं में सुरक्षा कमजोरियां गंभीर हैं और सुरक्षित डिफ़ॉल्ट सेटिंग्स और उन्नत परिनियोजन प्रथाओं की आवश्यकता को दर्शाती हैं।
हम विभिन्न एलएलएम फ्रेमवर्क के बीच सुरक्षा स्तर की असंगतियों की पहचान करते हैं और उन्हें सुधारने के तरीके सुझाते हैं।
यह मॉडल लीक, सिस्टम भ्रष्टाचार और अनधिकृत पहुंच जैसे जोखिमों पर विशेष रूप से प्रकाश डालते हुए सुरक्षा को मजबूत करने के महत्व पर प्रकाश डालता है।
Limitations:
चूंकि यह अध्ययन एक विशिष्ट समयावधि के स्नैपशॉट पर आधारित है, इसलिए हो सकता है कि यह समय के साथ हुए परिवर्तनों को प्रतिबिंबित न करे।
चूंकि यह विश्लेषण इंटरनेट पर सार्वजनिक रूप से उपलब्ध सेवाओं तक सीमित है, इसलिए यह निजी तौर पर वितरित LLM की सुरक्षा स्थिति को प्रतिबिंबित नहीं करता है।
खोजी गई कमजोरियों की गंभीरता और संभावित प्रभाव के मात्रात्मक मूल्यांकन का अभाव हो सकता है।
👍