The Features at Convergence Theorem: a first-principles alternative to the Neural Feature Ansatz for how networks learn representations
Created by
Haebom
作者
Enric Boix-Adsera, Neil Mallinar, James B. Simon, Mikhail Belkin
概要
本論文は、ニューラルネットワークが表現を学習する方法を理解するという深い学習の中心的な課題を扱います。主なアプローチは、特徴学習が発生するメカニズムの推測である神経特徴仮説(NFA)(Radhakrishnan et al。2024)です。 NFAは経験的に検証されたが、理論的根拠が不足して失敗する可能性がある点と改善方法が不明である。本論文は、この観察が成立する理由と成立しない場合を理解するために、最も原理的なアプローチを使用します。第1次最適化条件を用いて、NFAの代替物である収束時に特徴定理(FACT)を導く。 FACTは、(a)収束時に学習された特徴とより大きな一致を得、(b)ほとんどの設定でNFAが成立する理由を説明し、(c)モジュラー算術のグロッキング動作や希少パリティ学習の相転移など、ニューラルネットワークで必須の特徴学習現象をNFAと同様に捉える。したがって、この研究はニューラルネットワークの理論的第一次最適化分析と経験的に主導されたNFA文献を統合し、収束時に証明可能で経験的に確立する原則的な代替案を提供します。