본 논문은 지속적 학습(Continual Learning, CL)에서 대규모 사전 훈련 모델의 높은 추론 비용 문제를 해결하기 위해 모델 압축 기법을 연구합니다. 특히, 클래스 증분 학습(Class-Incremental Learning, CIL) 설정에서 가지치기(pruning)와 지식 증류(knowledge distillation, KD) 기반의 두 가지 효율적인 프레임워크를 제안합니다. 가지치기 기반 프레임워크는 사전 및 사후 가지치기 전략을 포함하며, KD 기반 프레임워크는 대규모 사전 훈련된 교사 모델이 경량화된 학생 모델에 지식을 전달하는 교사-학생 구조를 사용합니다. 다양한 CIL 벤치마크에 대한 실험을 통해 제안된 프레임워크가 정확도와 추론 복잡도 간의 균형을 더 잘 맞추고 기존 방법들을 능가함을 보여줍니다. 또한 두 프레임워크의 정확도와 효율성 간의 절충점을 분석하여 다양한 시나리오에서의 활용에 대한 통찰력을 제공합니다.