Cet article présente la capacité effective du modèle (CLEMC) pour les réseaux de neurones en apprentissage continu (AC) en lien avec le dilemme stabilité-plasticité. Nous développons une équation différentielle qui modélise l'évolution de l'interaction entre le réseau de neurones, les données de la tâche et la procédure d'optimisation, et montrons que la capacité effective, c'est-à-dire le compromis stabilité-plasticité, est intrinsèquement non stationnaire. Grâce à des expériences approfondies sur diverses architectures (notamment des réseaux à propagation directe, des réseaux de neurones convolutifs, des réseaux de neurones graphes et des modèles de langage à grande échelle basés sur Transformer avec des millions de paramètres), nous démontrons que la capacité du réseau à représenter de nouvelles tâches diminue lorsque la nouvelle distribution des tâches diffère de la précédente.