Cet article présente un cadre unifié pour comprendre et accélérer l'apprentissage profond des réseaux neuronaux par descente de gradient stochastique. En analysant le paysage géométrique de la fonction objective, nous introduisons une estimation courante de l'exposant de Lyapunov maximal, une mesure diagnostique viable qui distingue une véritable convergence vers un minimum stable d'une simple stabilisation statistique près d'un point-selle. Nous proposons également une extension de catégorie fantôme qui ajoute un nœud de sortie fantôme auxiliaire au classificateur standard, permettant au modèle d'ouvrir des chemins latéraux autour de barrières de perte étroites et à l'optimiseur d'obtenir des directions de descente supplémentaires pour contourner les branches faibles en début de phase d'apprentissage. Cette extension réduit considérablement l'erreur d'approximation et, après une convergence suffisante, la dimension fantôme s'effondre, de sorte que les invariants du modèle étendu sont cohérents avec ceux du modèle original. Nous montrons également qu'il existe un chemin dans l'espace des paramètres étendu où la perte initiale est réduite d'une marge arbitraire sans augmenter la perte totale. En conclusion, ces résultats fournissent une intervention architecturale raisonnée qui accélère l'apprentissage en début de phase tout en préservant le comportement asymptotique.