इस पत्र में, हम बड़े पैमाने के भाषा मॉडलों (एलएलएम) की सतत अधिगम (सीएल) समस्या को हल करने के लिए एक विश्लेषणात्मक उप-स्थान रूटिंग (एएसआर) तकनीक का प्रस्ताव करते हैं। मौजूदा सतत अधिगम तकनीकों में पिछले डेटा का पुन: उपयोग करने, अतिरिक्त गणना लागत वहन करने, या एकल-पैरामीटर दक्षता मॉड्यूल का उपयोग करने की समस्या है, जो नए ज्ञान के अवशोषण को सीमित करता है। एएसआर प्रत्येक कार्य के लिए डीप लेयर फ़ीचर्स के उप-स्थान के भीतर अधिगम को अलग करता है, जिससे कार्यों के बीच ज्ञान का हस्तक्षेप समाप्त हो जाता है। इसके अलावा, यह एक विश्लेषणात्मक रूटिंग तंत्र के माध्यम से विभिन्न उप-स्थानों में सीखे गए ज्ञान का कुशलतापूर्वक उपयोग करता है। यह पुनरावर्ती न्यूनतम वर्ग विधि का उपयोग करके एक बहु-कार्य राउटर मॉडल सीखता है, जिससे राउटर पिछले डेटा तक पहुँच के बिना आने वाले डेटा के साथ गतिशील रूप से अनुकूलित हो सकता है, वर्तमान कार्य को एक उपयुक्त उप-स्थान में असाइन कर सकता है, और पहले से सीखे गए कार्यों के लिए गैर-विस्मृति गुण की गारंटी देता है। प्रायोगिक परिणाम दर्शाते हैं कि एएसआर पिछले ज्ञान को लगभग पूरी तरह से बनाए रखते हुए नई जानकारी को निर्बाध रूप से एकीकृत करके मौजूदा विधियों की सीमाओं को प्रभावी ढंग से दूर करता है।