本文探讨了深度连续学习中深度神经网络在未进行参数重新初始化的情况下无法学习新任务的原因,即塑性损失。我们发现,这种失败之前,在新任务初始化期间会出现Hessian谱坍塌现象。这种现象会导致有意义的曲率方向消失,梯度下降变得低效。为了描述成功学习的必要条件,我们引入了$\tau$-可训练性的概念,并证明了当前的塑性保持算法可以集成到这个框架中。通过近似Hessian的Kronecker分解直接针对谱坍塌现象,我们提出了两种正则化增强方法:保持较高的有效特征秩和施加L2惩罚。在连续监督学习和强化学习任务上的实验表明,结合这两种正则化方法可以有效地保持塑性。