본 논문은 생물학적 뇌의 지속적인 학습 능력을 모방하여, 비지도 학습 환경에서도 catastrophic forgetting 없이 새로운 정보를 통합하는 task-modulated contrastive learning (TMCL) 방법을 제안합니다. TMCL은 예측 부호화 원리를 기반으로 상향식 정보를 지속적이고 비지도적으로 통합합니다. 새로운 클래스의 라벨링된 샘플이 발생하면, 기존의 피드포워드 가중치에 영향을 주지 않고 새로운 클래스를 다른 클래스와 분리하는 새로운 어파인 변조(affine modulation)를 학습합니다. 이후, 변조되지 않은 표현과 변조된 표현을 일치시키도록 피드포워드 가중치를 학습하여 변조 불변성을 도입하고, 과거 변조들을 사용하여 표현 공간을 안정화시킵니다. 실험 결과, 기존의 비지도 학습 및 지도 학습 방법들보다 class-incremental 및 transfer learning 성능이 향상됨을 보여주며, 전체 라벨의 1%만 사용해도 효과적임을 입증합니다. 이는 상향식 변조가 안정성과 가소성 간의 균형을 유지하는 데 중요한 역할을 한다는 것을 시사합니다.