इस शोधपत्र में, हम इस बात के प्रमाण प्रस्तुत करते हैं कि संरचित आउटपुट की आवश्यकता वाले कुछ डोमेन कार्यों के लिए SLM अभी भी गुणवत्ता में बेहतर हैं, भले ही GPT-4 जैसे बड़े पैमाने के भाषा मॉडल (LLM) के उद्भव ने वास्तविक दुनिया के अनुप्रयोगों के लिए छोटे पैमाने के भाषा मॉडल (SLM) को फ़ाइन-ट्यूनिंग के लाभों (तेज़ अनुमान, कम लागत) को कम स्पष्ट कर दिया है। कम-कोड JSON वर्कफ़्लो निर्माण कार्य पर SLM फ़ाइन-ट्यूनिंग की तुलना LLM प्रॉम्प्टिंग से करने पर, हम पाते हैं कि अच्छी प्रॉम्प्टिंग से उचित परिणाम मिल सकते हैं, लेकिन फ़ाइन-ट्यूनिंग से गुणवत्ता में औसतन केवल 10% का सुधार होता है। इसके अतिरिक्त, हम व्यवस्थित त्रुटि विश्लेषण के माध्यम से मॉडल की सीमाओं को उजागर करते हैं।