본 논문은 클라이언트 데이터를 저장할 수 없는 제약 하에 클라이언트들이 점진적으로 새로운 태스크를 학습하는 지속 연합 학습(Continual Federated Learning) 문제를 다룹니다. 비정형(non-IID) 데이터로 인한 불안정한 분산 학습 과정이 성능 저하를 야기하는 문제를 해결하기 위해, 모델 통합(model consolidation) 및 일관성 강화(consistency enforcement)라는 두 가지 간단하지만 효과적인 방법을 포함하는 FedCIL 모델을 제안합니다. 실험 결과, 제안 모델이 여러 벤치마크 데이터셋에서 기존 방법들보다 현저히 우수한 성능을 보였습니다.