Este artículo presenta un marco unificado para comprender y acelerar el aprendizaje de redes neuronales profundas mediante el descenso de gradiente estocástico. Mediante el análisis del panorama geométrico de la función objetivo, introducimos una estimación móvil del exponente máximo de Lyapunov, una métrica diagnóstica viable que distingue la convergencia verdadera a un mínimo estable de la mera estabilización estadística cerca de un punto de silla. También proponemos una extensión de la categoría fantasma que añade un nodo auxiliar de salida fantasma al clasificador estándar, lo que permite al modelo abrir caminos laterales alrededor de barreras de pérdida estrechas y al optimizador obtener direcciones de descenso adicionales para evitar ramas deficientes en la fase inicial de entrenamiento. Esta extensión reduce estrictamente el error de aproximación y, tras una convergencia suficiente, la dimensión fantasma colapsa de forma que las invariantes del modelo extendido son consistentes con las del modelo original. Demostramos que existe un camino en el espacio de parámetros extendido donde la pérdida original se reduce en un margen arbitrario sin aumentar la pérdida total. En conclusión, estos resultados proporcionan una intervención a nivel de arquitectura basada en principios que acelera la capacidad de aprendizaje en las etapas iniciales, preservando al mismo tiempo el comportamiento asintótico.