यह शोधपत्र क्लास इन्क्रीमेंटल लर्निंग और रीकरंट (CIR) सेटिंग पर केंद्रित है, जहाँ पारंपरिक क्लास इन्क्रीमेंटल लर्निंग (CIL) सेटिंग के विपरीत, पहले से सीखी गई कक्षाएं भविष्य के कार्यों में बार-बार दिखाई देती हैं। CIR सेटिंग बाहरी स्रोतों (जैसे, इंटरनेट) से प्रचुर मात्रा में लेबल रहित डेटा तक आसान पहुँच मानती है। इसलिए, हम दो घटकों का प्रस्ताव करते हैं जो CIR सेटिंग में प्रशिक्षित मॉडलों की उच्च स्थिरता और प्लास्टिसिटी सुनिश्चित करने के लिए लेबल रहित डेटा का कुशलतापूर्वक लाभ उठाते हैं। सबसे पहले, हम बहु-स्तरीय ज्ञान आसवन (MLKD) का परिचय देते हैं, जो सुविधाओं और लॉगिट सहित कई दृष्टिकोणों से कई पूर्व मॉडलों से ज्ञान को आसवित करता है, जिससे मॉडल विविध पूर्व ज्ञान को बनाए रख सकता है। इसके अलावा, हम नए वर्गों के सीखने में तेजी लाने के लिए लेबल रहित डेटा का लाभ उठाने हेतु एक गतिशील स्व-पर्यवेक्षित अधिगम हानि (SSL) लागू करते हैं, और SSL का गतिशील भार मुख्य कार्य पर अधिगम फोकस बनाए रखता है। इन दो प्रस्तावित घटकों ने CIR सेटिंग में प्रदर्शन में उल्लेखनीय सुधार किया, जिससे CVPR 5वें CLVISION चैलेंज में दूसरा स्थान प्राप्त हुआ।