본 논문은 연합 지속 학습(FCL)에서 발생하는 공간적 및 시간적 데이터 이질성으로 인한 catastrophic forgetting 문제를 해결하기 위해 Federated Tail Anchor (FedTA)를 제안합니다. FedTA는 학습 가능한 Tail Anchor와 고정된 출력 특징을 혼합하여 특징 공간에서 위치를 조정함으로써 매개변수 및 출력 손실을 극복합니다. 또한, 사전 학습된 모델의 성능 향상을 위한 입력 향상(Input Enhancement), 이질적인 지역 지식의 서버 융합을 위한 선택적 입력 지식 융합(Selective Input Knowledge Fusion), 그리고 각 클래스에 대한 최적의 앵커 포인트를 찾는 최적 전역 프로토타입 선택(Best Global Prototype Selection) 등 세 가지 새로운 구성 요소를 포함합니다. 실험 결과, FedTA는 기존 FCL 방법보다 성능이 우수하며 특징의 상대적 위치를 효과적으로 보존함을 보여줍니다.