Sign In

STAR: Stability-Inducing Weight Perturbation for Continual Learning

Created by
  • Haebom
Category
Empty

저자

Masih Eskandar, Tooba Imtiaz, Davin Hill, Zifeng Wang, Jennifer Dy

개요

본 논문은 순차적으로 새로운 다양한 작업을 학습하는 인간의 능력을 모방하는 지속적 학습(Continual Learning)에 초점을 맞추고 있습니다. 기존 지속적 학습의 어려움 중 하나인 catastrophic forgetting 문제를 해결하기 위해, 기존의 리허설 기반 방법(이전 데이터를 작은 버퍼에 저장하여 재사용하는 방법)의 한계를 극복하는 새로운 손실 함수인 STAR를 제안합니다. STAR는 모델 예측의 KL-divergence를 최소화하는 최악의 파라미터 변동을 활용하여 안정성을 높이고 망각을 완화합니다. 실험 결과, STAR는 다양한 기준 모델에서 기존 방법의 성능을 최대 15%까지 향상시키고, 최첨단 방법과 비교하여 우수하거나 경쟁력 있는 정확도를 달성함을 보여줍니다. STAR는 플러그 앤 플레이 방식으로 기존 리허설 기반 방법과 결합하여 사용할 수 있습니다.

시사점, 한계점

시사점:
기존 리허설 기반 지속적 학습 방법의 성능을 상당히 향상시키는 새로운 손실 함수 STAR를 제시.
플러그 앤 플레이 방식으로 다양한 기존 방법에 적용 가능.
최첨단 방법에 비해 우수하거나 경쟁력 있는 성능을 보임.
catastrophic forgetting 문제 완화에 효과적임.
한계점:
STAR의 효과는 다양한 기준 모델과 데이터셋에 대한 실험 결과에 기반하지만, 모든 상황에서 일관된 성능 향상을 보장하지는 않을 수 있음.
리허설 기반 방법에 의존하므로, 버퍼 크기의 제한으로 인한 성능 저하 가능성 여전히 존재.
KL-divergence 최소화에 기반한 STAR의 설계 철학이 모든 지속적 학습 문제에 최적으로 적용될 수 있는지 추가적인 연구가 필요.
👍