본 논문은 지속적인 학습 과정에서 신경망의 적응 능력이 저하되는 현상인 가소성 손실(Plasticity Loss) 문제를 해결하기 위해 자기 정규화 재설정(Self-Normalized Resets, SNR) 알고리즘을 제안합니다. SNR은 뉴런의 발화율이 0에 가까워졌을 때 가중치를 재설정하는 간단한 적응형 알고리즘으로, 다양한 지속 학습 문제와 네트워크 구조에서 기존 알고리즘보다 우수한 성능을 보입니다. 또한, SNR은 유일한 하이퍼파라미터인 기각 백분위수 임계값에 대해 강건한 반면, 경쟁 알고리즘은 민감하게 반응하는 것으로 나타났습니다. 단일 ReLU 학습의 최적화 지형에 대한 이론적 조사를 통해, SNR의 이상적인 버전은 적대적으로 초기화되더라도 목표 ReLU를 학습하는 반면, 정규화 기반 접근 방식은 학습에 실패할 수 있음을 보여줍니다. SNR의 임계값 기반 재설정 메커니즘은 유도된 간단한 가설 검정에 의해 동기가 부여되며, 경쟁적인 재설정 제안은 비활성 뉴런을 정확하게 감지하는 데 최적이 아닌 오류율을 초래하여 실험적 관찰을 설명할 수 있습니다.