Este artículo busca abordar la pérdida de plasticidad (la pérdida de la capacidad de aprendizaje al aprender de datos anormales a largo plazo) de las redes neuronales, un problema crítico en el diseño de sistemas de aprendizaje continuo. Proponemos un método para reinicializar una porción de una red como técnica eficaz para prevenir la pérdida de plasticidad. Comparamos y analizamos dos métodos de reinicialización: reinicialización unitaria y reinicialización por peso. Específicamente, proponemos un nuevo algoritmo, "reinicialización selectiva por peso", y lo comparamos con algoritmos de reinicialización unitaria existentes, retropropagación continua y ReDo. Nuestros resultados experimentales revelan que la reinicialización por peso es más efectiva que la reinicialización unitaria para mantener la plasticidad cuando el tamaño de la red es pequeño o se incluye la normalización de capas. Por el contrario, cuando el tamaño de la red es suficiente y no se incluye la normalización de capas, ambos métodos son igualmente efectivos. En conclusión, demostramos que la reinicialización por peso es más efectiva que la reinicialización unitaria para mantener la plasticidad en una gama más amplia de entornos.