Este artículo proporciona un análisis empírico de la dinámica de gradientes, fundamental para determinar la estabilidad y la capacidad de generalización de las redes neuronales profundas. Analizamos la evolución de la varianza y la desviación estándar de los gradientes en redes neuronales convolucionales, que presentan cambios consistentes tanto a escala capa por capa como a escala global. Con base en estas observaciones, proponemos un método de regularización de gradientes sin hiperparámetros que alinea el escalamiento de gradientes con el proceso evolutivo natural. Este método previene la amplificación involuntaria, estabiliza la optimización y mantiene las garantías de convergencia. Experimentos en el exigente banco de pruebas CIFAR-100, utilizando ResNet-20, ResNet-56 y VGG-16-BN, demuestran que el método mantiene o mejora la precisión de la prueba incluso con una generalización fuerte. Además de demostrar mejoras sustanciales en el rendimiento, este estudio destaca la importancia del seguimiento directo de la dinámica de gradientes para reducir la brecha entre las expectativas teóricas y el comportamiento empírico, y proporcionar información para futuras investigaciones en optimización.