Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Soft-TransFormers for Continual Learning

Created by
  • Haebom

作者

Haeyong Kang, Chang D. Yoo

概要

本論文では、Well-initialized Lottery Ticket Hypothesis(WLTH)に触発され、最適なソフトネットワークを各課題ごとに順次学習し選択する新しい完全微調整連続学習(CL)法であるSoft-TransFormers(Soft-TF)を提案します。 Soft-TFは、連続学習の過程で事前訓練されたレイヤパラメータを固定しながら、よく初期化されたSoft-TFマスクを介して希少レイヤの重みを最適化し、課題適応型ソフト(実数値)ネットワークを取得します。推論されると、識別された課題適応ネットワークは事前訓練されたネットワークのパラメータをマスクし、各課題の最適なソリューションにマッピングし、致命的な忘却(CF)を最小限に抑えます。ソフトマスキングは、事前に訓練されたネットワークの知識を保存します。 Vision Transformer(ViT)とLanguage Transformer(Bert)の広範な実験により、Soft-TFの効果を実証し、ビジョンと言語クラス増分学習(CIL)シナリオで最先端のパフォーマンスを実現します。

Takeaways、Limitations

Takeaways:
Well-initialized Lottery Ticket Hypothesisを連続学習に効果的に適用する新しい方法の提示
課題適応型ソフトネットワークによる致命的な忘却問題を効果的に解決
ViTとBertを用いた実験により、ビジョンと言語分野の両方で最先端のパフォーマンスを達成しました。
ソフトマスキング技術によって事前訓練されたネットワークの知識を効果的に保存します。
Limitations:
提示された方法の計算コストと複雑さの分析不足
さまざまなデータセットと課題の一般化パフォーマンスの追加検証が必要です。
Soft-TFマスクの最適化戦略の詳細な説明が必要です。
特定のアーキテクチャ(ViT、Bert)への依存が存在する可能性。
👍