この論文は、継続的な学習において、既存のモデルが可塑性または安定性のいずれかに偏っている問題を解決するためにRDBPという新しい方法を提示します。 RDBPは、ニューロンの休止状態を防止しながら、特徴感度を維持するReLUDownと、初期層を急激な更新から徐々に保護するDecreasing Backpropagationという2つの相互補完的なメカニズムを組み合わせています。 Continual ImageNetベンチマークで評価した結果、RDBPは最新の方法と比較して可塑性と安定性の両方で同等または優れた性能を示し、計算コストも削減しました。したがって、RDBPは実際の継続的な学習に対する実用的な解決策であり、将来の継続的な学習戦略を評価するための明確なベンチマークを提供します。