신경망이 순차적 작업을 격리하여 처리하는 기존의 지속 학습 방법의 한계를 해결하기 위해, 상호 작업 관계를 활용하지 못하고 유사한 특징을 반복적으로 다시 학습하거나 과도하게 차별화하는 문제를 다룹니다. 이를 위해 두 개의 보완적인 메모리로 구성된 완전히 미분 가능한, 샘플 없는 확장 가능한 방법을 제안합니다. 하나는 모든 작업에서 사용할 수 있는 공통 특징을 학습하고, 다른 하나는 공유 특징을 결합하여 각 샘플에 고유한 식별적 특징을 학습합니다. 각 메모리는 미분 가능하므로 네트워크가 각 샘플에 대한 잠재 표현을 자율적으로 학습할 수 있습니다. 각 작업에 대해 메모리 조정 모듈은 중요한 슬롯을 적응적으로 가지치기하고 새로운 개념을 수용하기 위해 용량을 최소한으로 확장하며, 직교 정규화는 보존된 메모리 구성 요소와 새로 학습된 메모리 구성 요소 간의 기하학적 분리를 적용하여 간섭을 방지합니다. CIFAR-10, CIFAR-100 및 Tiny-ImageNet에 대한 실험 결과, 제안된 방법이 클래스 증분 학습에 대한 14가지 최첨단 방법을 능가하여 각각 55.13%, 37.24%, 30.11%의 최종 정확도를 달성했습니다.