지속적 학습에서 기존 지식을 유지하면서 새로운 지식을 습득하는 것은 어려운 과제입니다. 기존 방법들은 종종 이전 과제 데이터의 일부를 저장하여 훈련하는 경험 재현 기법을 사용합니다. 경험 재현 접근 방식에서 데이터 증강은 제한된 이전 과제 데이터와 충분한 현재 과제 데이터를 혼합하여 모델 성능을 향상시키는 유망한 전략으로 등장했습니다. 그러나 본 논문에서는 무작위 샘플 쌍에서 혼합된 샘플로 훈련하는 것이 이전 과제의 지식을 손상시키고 더 큰 망각을 초래할 수 있음을 이론적 및 실험적으로 분석합니다. 따라서 본 논문에서는 계층적 증분 학습에서 망각을 완화하기 위해 특별히 설계된 강력한 데이터 증강 방법인 GradMix를 제안합니다. GradMix는 망각을 줄이기 위해 유익한 클래스 쌍의 샘플만 혼합하고 해로운 클래스 쌍의 샘플은 혼합하지 않는 클래스 기반 기준을 사용하여 기울기 기반 선택적 믹스업을 수행합니다. 다양한 실제 데이터 세트에 대한 실험 결과, GradMix는 이전 지식의 망각을 최소화함으로써 데이터 증강 기준보다 정확도가 높은 것으로 나타났습니다.