본 논문은 연속 학습 환경에서 발생하는 망각 문제를 해결하기 위해, 연속적인 데이터 스트림으로부터 정보가 풍부한 예제(exemplar)를 추출하는 새로운 연합 학습 방법인 Exemplar-Condensed federated class-incremental learning (ECoral)을 제안합니다. 기존의 재전송 기반 방법들의 한계점인 예제 선택 과정에서의 정보 밀도 불균형 문제를 해결하고, 추출된 예제들이 기존 이미지들과 효과적으로 일관된 학습 경사도를 유지하도록 설계되었습니다. 또한, 클라이언트 간 분리 가능한 생성 모델을 공유하여 요약된 데이터의 정보 불균형을 줄입니다. 실험 결과, ECoral은 기존 최첨단 방법들을 능가하는 성능을 보이며, 다른 기존 방법들과도 손쉽게 통합될 수 있음을 보여줍니다.