Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Stochastic Layer-wise Learning: Scalable and Efficient Alternative to Backpropagation

Created by
  • Haebom

作者

Bojian Yin, Federico Corradi

概要

本論文は、グローバルな勾配同期に依存する逆伝播の限界を解決するために、グローバルな表現の一貫性を維持しながらレイヤごとに調整された更新を実行するレイヤ固有のトレーニングアルゴリズムであるStochastic Layer-wise Learning(SLL)を提示します。 SLLは、ネットワークのMarkov仮定に基づいてELBO(Evidence Lower Bound)に触発され、各レイヤーは決定論的なエンコーダーを介してローカル目標を最適化します。 ELBOの扱いにくいKL発散は、固定された幾何学的構造を維持する任意の投影によって得られた補助カテゴリー事後分布から計算されたBhattacharyya代用物に置き換えられる。オプションの乗算ドロップアウトは確率的正規化を提供します。 SLLはローカルで最適化され、グローバルに整列してレイヤ間の逆伝播を除去します。 MNISTからImageNetに至るMLP、CNN、Vision Transformerの実験では、SLLは最近のローカル方法を上回り、メモリ使用量は深さに関係なくグローバルBP性能に匹敵します。

Takeaways、Limitations

Takeaways:
グローバルな勾配同期なしで効率的なローカル学習の可能性を提示します。
メモリ使用量と演算効率を向上させ、モデルのスケーラビリティを高めます。
MNIST、ImageNetなど、さまざまなデータセットで従来の方法論と似たパフォーマンスを提供します。
深さに関係のないメモリ使用量による大規模モデル学習に適しています。
Limitations:
ELBOベースの方法論では、マルコフの仮定の有効性によってパフォーマンスが影響を受ける可能性があります。
Bhattacharyya surrogateを使用しているため、精度に潜在的な影響がある可能性があります。
ランダム投影やドロップアウトなどの追加の正規化技術に依存します。
👍