Sign In

Low-Complexity Inference in Continual Learning via Compressed Knowledge Transfer

Created by
  • Haebom
Category
Empty

저자

Zhenrong Liu, Janne M. J. Huttunen, Mikko Honkala

개요

본 논문은 지속적 학습(Continual Learning, CL)에서 대규모 사전 훈련 모델의 높은 추론 비용 문제를 해결하기 위해 모델 압축 기법을 연구합니다. 특히, 클래스 증분 학습(Class-Incremental Learning, CIL) 설정에서 가지치기(pruning)와 지식 증류(knowledge distillation, KD) 기반의 두 가지 효율적인 프레임워크를 제안합니다. 가지치기 기반 프레임워크는 사전 및 사후 가지치기 전략을 포함하며, KD 기반 프레임워크는 대규모 사전 훈련된 교사 모델이 경량화된 학생 모델에 지식을 전달하는 교사-학생 구조를 사용합니다. 다양한 CIL 벤치마크에 대한 실험을 통해 제안된 프레임워크가 정확도와 추론 복잡도 간의 균형을 더 잘 맞추고 기존 방법들을 능가함을 보여줍니다. 또한 두 프레임워크의 정확도와 효율성 간의 절충점을 분석하여 다양한 시나리오에서의 활용에 대한 통찰력을 제공합니다.

시사점, 한계점

시사점:
대규모 사전 훈련 모델을 활용한 지속적 학습에서 추론 비용 문제를 효과적으로 해결하는 가지치기와 지식 증류 기반 프레임워크 제시.
클래스 증분 학습 설정에서 정확도와 효율성을 동시에 향상시키는 방법 제시.
다양한 시나리오에 적합한 모델 압축 전략 선택에 대한 통찰력 제공.
한계점:
제안된 프레임워크의 성능은 특정 벤치마크 및 데이터셋에 의존적일 수 있음.
더욱 다양하고 복잡한 지속적 학습 시나리오에 대한 추가적인 실험이 필요함.
가지치기 및 지식 증류의 하이퍼파라미터 최적화에 대한 추가적인 연구가 필요함.
👍