본 논문은 제한된 예시만으로 새로운 데이터 클래스를 학습하고 기존 지식을 보존하는 Few-Shot Class-Incremental Learning (FSCIL)에 대한 최신 연구를 다룹니다. 대규모 데이터셋, 도메인 변화, 다양한 네트워크 아키텍처에 걸쳐 광범위한 실험을 통해 여러 FSCIL 방법들을 평가하고 비교합니다. 특히, 기존의 시각-언어 모델(CLIP)을 성능이 더 우수한 다른 시각-언어 모델(CLOOB)로 대체하여 가장 유망한 방법을 개선하는 실험적 접근 방식을 제시하며, FSCIL 분야의 최근 발전을 개괄하고, 망각 문제를 완화하고 모델의 적응력을 향상시키는 다양한 전략을 분석합니다.