यह शोधपत्र बड़े पैमाने के भाषा मॉडल (LLM) और विज़न-लैंग्वेज मॉडल (VLM) की भेद्यता का विश्लेषण करता है ताकि छोटे बदलावों के प्रति उनकी उच्च संवेदनशीलता के कारण की पहचान की जा सके। हम व्यक्तिगत मापदंडों और इनपुट आयामों (पिक्सेल या टोकन एम्बेडिंग) की संवेदनशीलता को मापने के लिए सूचना ज्यामिति पर आधारित एक नया स्थिरता मीट्रिक, प्रथम-क्रम स्थानीय प्रभाव (FI) प्रस्तावित करते हैं। 1.5 बिलियन से 13 बिलियन तक के मापदंडों वाले विभिन्न LLM और VLM का विश्लेषण करके, हम बताते हैं कि उच्च FI मान वाले मापदंडों या इनपुट आयामों की एक छोटी संख्या मॉडल की भेद्यता में असंगत रूप से योगदान करती है, और दिखाती है कि इन कमजोर मापदंडों के प्रभाव को कम करने से मॉडल के प्रदर्शन में सुधार होता है।