दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

रोबोटिक्स में दृष्टि-भाषा-क्रिया मॉडल की प्रतिकूल कमजोरियों की खोज

Created by
  • Haebom

लेखक

ताओवेन वांग, चेंग हान, जेम्स चेनहाओ लियांग, वेन्हाओ यांग, डोंगफैंग लियू, लूना ज़िन्यू झांग, क़िफ़ान वांग, जीबो लुओ, रुइक्सियांग तांग

रूपरेखा

यह शोधपत्र दृष्टि-भाषा-क्रिया (वीएलए) मॉडल की कमज़ोरियों का व्यवस्थित मूल्यांकन करता है, जिसने हाल ही में रोबोटिक्स के क्षेत्र में ध्यान आकर्षित किया है। वीएलए मॉडल दृश्य और भाषा इनपुट को एकीकृत करके जटिल कार्य कर सकता है, साथ ही यह एक नया आक्रमण क्षेत्र भी बनाता है। रोबोट निष्पादन की विशिष्ट आवश्यकताओं को समझते हुए, यह अध्ययन दो गैर-लक्षित आक्रमण उद्देश्यों का प्रस्ताव करता है: एक स्थानिक और कार्यात्मक विशेषताओं को लक्षित करना, और दूसरा रोबोट के पथ में हेरफेर करने वाले लक्षित आक्रमण को लक्षित करना। हमने एक प्रतिकूल पैच निर्माण विधि डिज़ाइन की है जो कैमरे के दृश्य क्षेत्र में छोटे, रंगीन पैच स्थापित करती है, जिससे नकली और वास्तविक, दोनों वातावरणों में आक्रमण प्रभावी ढंग से किया जा सकता है। प्रायोगिक परिणाम नकली रोबोट कार्यों में कार्य सफलता दर में 100% तक की कमी प्रदर्शित करते हैं, जो वर्तमान वीएलए आर्किटेक्चर की गंभीर सुरक्षा कमज़ोरियों को उजागर करता है। यह अध्ययन वीएलए-आधारित रोबोटिक प्रणालियों की सुरक्षा में सुधार के लिए समझ और मूल्यांकन मीट्रिक प्रस्तुत करता है और वास्तविक वातावरण में तैनाती से पहले लगातार मज़बूत रक्षा रणनीतियों को विकसित करने की आवश्यकता पर बल देता है।

____T24092_____, ____T24093_____

Takeaways: यह शोधपत्र VLA मॉडल में सुरक्षा कमज़ोरियों की व्यवस्थित रूप से पहचान करता है और वास्तविक दुनिया के परिवेशों में इसे लागू करने से पहले एक मज़बूत रक्षा रणनीति विकसित करने के महत्व पर ज़ोर देता है। यह स्थानिक विशेषताओं और एक प्रतिकूल पैच निर्माण पद्धति का उपयोग करते हुए एक नवीन आक्रमण तकनीक प्रस्तुत करता है, जो VLA मॉडल के सुरक्षा मूल्यांकन पर एक नया दृष्टिकोण प्रदान करता है। प्रस्तुत मूल्यांकन मीट्रिक भविष्य में VLA मॉडल की सुरक्षा को बेहतर बनाने में योगदान दे सकते हैं।
Limitations: वर्तमान सिमुलेशन परिवेश से प्राप्त मूल्यांकन परिणामों को वास्तविक-विश्व रोबोटिक प्रणालियों पर सामान्यीकृत करने के लिए और अधिक शोध की आवश्यकता है। विभिन्न VLA मॉडलों और कार्यों के व्यापक मूल्यांकन के साथ-साथ प्रस्तावित आक्रमण तकनीकों के विरुद्ध रक्षा रणनीतियों के विकास और मूल्यांकन पर और अधिक शोध की आवश्यकता है। इस बात की कोई गारंटी नहीं है कि वास्तविक-विश्व परिवेशों में आक्रमण की सफलता दर सिमुलेशन परिणामों के समान ही होगी।
👍