यह शोधपत्र संसाधन-सीमित वातावरणों (जैसे, कम मेमोरी वाले उपकरणों) में परिनियोजन के लिए उपयुक्त हल्के डीप लर्निंग मॉडलों का एक व्यापक मूल्यांकन प्रस्तुत करता है। हमने पाँच अत्याधुनिक आर्किटेक्चर—मोबाइलनेटवी3 स्मॉल, रेसनेट18, स्क्वीज़नेट, एफिशिएंटनेटवी2-एस, और शफलनेटवी2—का तीन विविध डेटासेट्स: CIFAR-10, CIFAR-100, और टाइनी इमेजनेट पर बेंचमार्क किया है। हम चार प्रमुख प्रदर्शन मानकों का उपयोग करके मॉडलों का मूल्यांकन करते हैं: वर्गीकरण सटीकता, अनुमान समय, फ्लोटिंग-पॉइंट ऑपरेशन (FLOPs), और मॉडल आकार। हम हाइपरपैरामीटर ट्यूनिंग, डेटा संवर्द्धन और प्रशिक्षण प्रतिमानों के प्रभाव की जाँच करने के लिए पूर्व-प्रशिक्षित मॉडलों की तुलना नए सिरे से प्रशिक्षित मॉडलों से करते हैं। हमने पाया है कि ट्रांसफर लर्निंग, विशेष रूप से टाइनी इमेजनेट जैसे जटिल डेटासेट्स पर, मॉडल सटीकता और कम्प्यूटेशनल दक्षता में उल्लेखनीय सुधार करती है। EfficientNetV2 लगातार उच्चतम सटीकता प्राप्त करता है, MobileNetV3 सटीकता और दक्षता के बीच सर्वोत्तम संतुलन प्रदान करता है, और SqueezeNet अनुमान लगाने की गति और संक्षिप्तता में उत्कृष्ट है। यह अध्ययन सटीकता और दक्षता के बीच महत्वपूर्ण संतुलन को उजागर करता है, और सीमित कम्प्यूटेशनल संसाधनों वाले वास्तविक-विश्व अनुप्रयोगों में हल्के मॉडलों को परिनियोजित करने के लिए क्रियाशील अंतर्दृष्टि प्रदान करता है।