본 논문은 기존 지속 학습(Continual Learning, CL) 연구가 제한된 예시 메모리 자원을 가정하는 것과 달리, 대규모 기초 모델 시대의 풍부한 메모리 환경을 고려하여 연구를 진행했습니다. GPU 연산 비용이 주요 병목 현상인 상황에서 충분한 예시 메모리를 가정하고, 가중치 재설정 및 평균화 기법을 통해 모델의 가중치 공간에서 직접 작동하는 간단하면서도 효과적인 방법을 제안합니다. 기존 방법들보다 연산 비용을 1/4 또는 1/3으로 줄이면서 최첨단 성능을 달성하여 기존 CL에 대한 가정에 도전하고, 연산 효율적인 CL 응용 프로그램을 위한 실용적인 기준을 제시합니다.