본 논문은 신경망 훈련에서 중요한 문제인 가소성 손실을 해결하기 위해 새로운 방법인 AID(Activation by Interval-wise Dropout)를 제안합니다. AID는 드롭아웃을 각 활성화 구간에 다른 확률로 적용하여 서브네트워크를 생성하는 방식으로, 이론적 분석을 통해 심층 선형 네트워크와 유사한 동작을 하도록 네트워크를 규제하여 가소성 손실을 완화함을 보여줍니다. CIFAR10, CIFAR100, TinyImageNet과 같은 표준 이미지 분류 데이터셋에서의 지속 학습 과제를 포함한 다양한 벤치마크에서 가소성 유지를 효과적으로 수행함을 검증하였고, 아케이드 학습 환경 벤치마크에서 강화 학습 성능 향상도 보여줍니다.