본 논문은 장기간 지속 학습(Long-term Continual Learning, Long-CL)에 초점을 맞춰, 인간 학습과 유사하게 시간에 걸쳐 방대한 양의 작업 스트림으로부터 순차적으로 학습하고, 새로운 지식을 습득하면서 이전에 학습한 정보를 유지하는 모델을 연구합니다. 기존의 지속 학습 설정과 달리, 장기간 지속 학습은 훨씬 많은 작업을 처리해야 하므로 재난적 망각 문제가 더욱 심각해집니다. 본 논문에서는 기존 지속 학습 방법이 장기간 지속 학습 환경에서 어떻게 수행되는지, 그리고 장기간 순차적 업데이트로 인해 발생하는 재난적 망각을 어떻게 완화할 수 있는지에 대한 두 가지 중요한 질문을 다룹니다. 이러한 문제를 해결하기 위해, 인간 기억 메커니즘에서 영감을 얻은 새로운 장기간 지속 학습 프레임워크(Long-CL)를 제안합니다. 특히, 중요한 기억을 효율적으로 색인하고 학습이 진행됨에 따라 적응적으로 업데이트하는 작업 중심 메모리 관리 전략을 도입하고, 어렵고 차별적인 샘플을 선택적으로 유지하여 강력한 지식 유지를 보장하는 장기 기억 통합 메커니즘을 개발합니다. 또한, 이 분야의 연구를 용이하게 하기 위해 다중 모드 및 텍스트 벤치마크인 MMLongCL-Bench 및 TextLongCL-Bench를 구축하여 공개합니다. 실험 결과, Long-CL은 두 벤치마크에서 각각 7.4% 및 6.5% AP만큼 기존 최첨단 기술을 능가하는 성능을 보여줍니다.