यह शोधपत्र किसी मौजूदा बड़े पैमाने के भाषा मॉडल (LLM) में एक नई भाषा को कुशलतापूर्वक एकीकृत करने की एक नवीन विधि प्रस्तुत करता है। हमने एक छोटे, ओपन-सोर्स, अंग्रेज़ी-आधारित मॉडल, कुवैन, को 1.5 अरब मापदंडों के साथ, अरबी भाषा को इसमें शामिल करके प्रशिक्षित किया। हमने मौजूदा ज्ञान को संरक्षित करते हुए अरबी प्रदर्शन में औसतन 8% सुधार हासिल किया, जिससे अंग्रेज़ी और अरबी दोनों के लिए एक व्यापक मॉडल के प्रशिक्षण का एक किफ़ायती विकल्प उपलब्ध हुआ। यह व्यापक पुनर्प्रशिक्षण या संसाधन-गहन प्रक्रियाओं के बिना भाषा मॉडलों के कुशल, लक्ष्य-उन्मुख स्केलिंग की क्षमता को दर्शाता है।