본 논문은 클래스 증분 학습(CIL) 환경에서 사전 훈련된 모델을 활용한 효율적인 매개변수 튜닝 방법을 연구합니다. 특히, 어댑터 튜닝의 우수성을 확인하고, 이를 바탕으로 파라미터 업데이트 제약 없이 공유 어댑터를 점진적으로 튜닝하여 백본의 학습 능력을 향상시키는 새로운 방법을 제안합니다. 또한, 저장된 프로토타입에서 특징을 샘플링하여 통합 분류기를 재훈련하고, 과거 샘플 없이 이전 프로토타입의 의미론적 변화를 추정하여 매 세션마다 저장된 프로토타입을 업데이트합니다. 제안하는 방법은 모델 확장을 제거하고 이미지 샘플을 보존하지 않으며, 기존의 사전 훈련된 모델 기반 CIL 방법들을 능가하는 뛰어난 지속 학습 성능을 보입니다. 다섯 개의 CIL 벤치마크에서 실험을 통해 제안하는 방법의 효과를 검증하고, 최첨단(SOTA) 성능을 달성했습니다.