Cet article vise à aborder la perte de plasticité (perte de capacité d'apprentissage lors de l'apprentissage à partir de données anormales à long terme) des réseaux de neurones, un problème crucial dans la conception de systèmes d'apprentissage continu. Nous proposons une méthode de réinitialisation d'une portion de réseau comme technique efficace pour prévenir la perte de plasticité. Nous comparons et analysons deux méthodes de réinitialisation : la réinitialisation unitaire et la réinitialisation pondérale. Plus précisément, nous proposons un nouvel algorithme, la « réinitialisation pondérale sélective », et le comparons aux algorithmes de réinitialisation unitaire existants, la rétropropagation continue et ReDo. Nos résultats expérimentaux révèlent que la réinitialisation pondérale est plus efficace que la réinitialisation unitaire pour maintenir la plasticité lorsque la taille du réseau est petite ou que la normalisation des couches est incluse. Inversement, lorsque la taille du réseau est suffisante et que la normalisation des couches n'est pas incluse, les deux méthodes sont tout aussi efficaces. En conclusion, nous démontrons que la réinitialisation pondérale est plus efficace que la réinitialisation unitaire pour maintenir la plasticité dans un plus large éventail d'environnements.