Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Poids aléatoires des DNN et émergence de points fixes

Created by
  • Haebom

Auteur

L. Berlyand, O. Krupchytskyi, V. Slavin

Contour

Cet article étudie un type particulier de réseau neuronal profond (DNN) où les vecteurs d'entrée et de sortie ont la même dimension. Ces DNN sont largement utilisés dans des applications telles que les auto-encodeurs. Cet article caractérise l'apprentissage de ces réseaux en termes de points fixes (PF) et étudie la dépendance du nombre de points fixes et de leur stabilité sur la distribution de la matrice de pondération des DNN initialisés aléatoirement. Nous considérons plus particulièrement des poids aléatoires iid avec des distributions à queue lourde et à queue légère. Nos objectifs de recherche sont doubles. Premièrement, nous démontrons la dépendance du nombre de points fixes et de leur stabilité sur le type de queue de distribution. Deuxièmement, nous démontrons la dépendance du nombre de points fixes sur l'architecture du DNN. Grâce à des simulations approfondies, nous montrons que pour les distributions à queue légère (par exemple, gaussiennes), couramment utilisées pour l'initialisation, il existe un seul point fixe stable dans diverses architectures. En revanche, pour les distributions à queue lourde (par exemple, Cauchy), fréquemment rencontrées dans les DNN entraînés, plusieurs points fixes apparaissent. Ces points fixes sont des attracteurs stables, et leurs domaines attractifs partitionnent le domaine du vecteur d'entrée. Nous observons également une relation non monotone intéressante entre le nombre de points d'ancrage $Q(L)$ et la profondeur $L$ du DNN. Ces résultats ont d'abord été obtenus pour des DNN non entraînés avec deux types de distributions à l'initialisation, puis validés en considérant des DNN présentant des distributions à queue lourde pendant l'entraînement.

Takeaways, Limitations

Takeaways:
Il a été démontré que les DNN initialisés avec des distributions à queue légère ont généralement un seul point fixe stable.
Les DNN initialisés ou formés avec des distributions à queue lourde peuvent avoir plusieurs points d'ancrage stables, ce qui fournit de nouvelles informations sur le comportement des DNN.
La relation non monotone entre la profondeur d'un DNN et le nombre de points d'ancrage fournit Takeaways pour la conception structurelle des DNN.
Limitations:
Ces résultats se limitent à un type et à une distribution spécifiques de DNN. Des recherches supplémentaires sont nécessaires sur des architectures et des distributions de DNN plus générales.
Cette étude repose principalement sur des résultats de simulation plutôt que sur une analyse théorique. Des recherches complémentaires sont nécessaires pour établir un fondement théorique.
Il manque une explication claire de la relation non monotone entre le nombre de points d'ancrage et la profondeur du DNN. Une analyse plus approfondie de cette relation est nécessaire.
👍