本論文は、継続的な学習において、既存の課題の性能が新しい課題を学習する際に一時的に低下する現象である「安定性ギャップ」について扱う。これは理想的な共同損失環境でも発生し、既存の学習内容の損失を軽減するアルゴリズムの脆弱性を示しています。この論文は、このギャップが迅速な適応と堅牢な維持との間の不均衡を反映していると主張し、生物学的脳の多重時間スケールダイナミクスからインスピレーションを得て不確実性を制御するゲインダイナミクスという新しいメカニズムを提案する。このメカニズムは、2つの時間スケール最適化器を近似し、知識の統合と既存の情報の干渉を最小限に抑える動的バランスを提供します。 MNISTとCIFARベンチマークでの実験結果は、提案されたメカニズムが安定性ギャップを効果的に軽減することを示しています。最後に、利得変調が脳皮質回路におけるノルアドレナリン機能をどのように再現するかを分析し、安定性ギャップを減らし、継続的な学習課題の性能を向上させるメカニズムについての洞察を提供する。