본 논문은 비정상적인 데이터 분포를 다루고 장기간 자율 학습을 해야 하는 실세계 머신러닝 응용 프로그램의 문제점을 다룹니다. 특히, 온라인 학습 환경에서 발생하는 치명적인 망각(Catastrophic Forgetting, CF) 문제에 초점을 맞춥니다. CF는 모델이 최근 작업에 집중하면서 이전 작업에 대한 예측 성능이 저하되는 현상입니다. 기존의 해결책들은 고정 크기의 메모리 버퍼를 사용하여 이전 샘플을 저장하고 새로운 작업 학습 시 재사용하는 방식을 사용하지만, 메모리 관리에 예측 불확실성 정보를 어떻게 효과적으로 활용할지, 그리고 메모리를 채우는 전략에 대한 명확한 지침이 부족합니다. 본 논음은 예측 불확실성이 의사결정 공간에서 샘플의 위치를 나타낸다는 직관에 기반하여, 다양한 불확실성 추정 및 메모리 채우기 전략을 심층 분석합니다. CF 완화에 효과적인 데이터 포인트의 특징을 이해하고, 음의 로그 우도에 의해 유도된 일반화 분산을 통한 예측 불확실성 추정 방법을 제안하며, 다양한 환경에서 예측 불확실성 측정의 CF 감소 효과를 실험적으로 증명합니다.