Este artículo aborda el problema de las aplicaciones de aprendizaje automático en el mundo real que gestionan distribuciones de datos anormales y requieren aprendizaje no supervisado a largo plazo. En particular, nos centramos en el olvido catastrófico (FC) que se produce en entornos de aprendizaje en línea. El FC es un fenómeno en el que un modelo se centra en tareas recientes y su rendimiento predictivo en tareas anteriores se deteriora. Las soluciones existentes utilizan un búfer de memoria de tamaño fijo para almacenar muestras previas y reutilizarlas al aprender nuevas tareas, pero faltan directrices claras sobre cómo utilizar eficazmente la información sobre la incertidumbre de la predicción en la gestión de la memoria y sobre la estrategia para llenarla. Partiendo de la intuición de que la incertidumbre de la predicción representa la ubicación de una muestra en el espacio de decisión, este artículo analiza en profundidad diversas estrategias de estimación de la incertidumbre y llenado de la memoria. Comprendemos las características de los puntos de datos que son eficaces para mitigar el FC, proponemos un método de estimación de la incertidumbre de la predicción utilizando la varianza generalizada inducida por el logaritmo de la verosimilitud negativa y demostramos experimentalmente la eficacia de las medidas de incertidumbre de la predicción para reducir el FC en diversos entornos.