본 논문은 지속적인 지시 조정(Continual Instruction Tuning)을 통해 대규모 언어 모델(LLM)이 과거 지식을 유지하면서 점진적으로 학습할 수 있도록 하는 새로운 프레임워크를 제안합니다. 기존 방법들이 주로 과거 지식을 유지하는 방법에 초점을 맞춘 것과 달리, 본 논문은 어떤 새로운 지식을 학습할지를 선택하는 문제에 중점을 둡니다. 특히 도메인 특정 맥락에서 데이터 품질 유지 및 시스템 제약 관리의 어려움을 해결하기 위해, 중복 데이터를 식별하고 줄이는 자동화된 지속적 지시 조정 프레임워크를 제시합니다. 이는 효율적인 퍼플렉서티 기반 필터링을 위한 작은 프록시 모델을 활용하며, 필터링 기준이 배포된 모델의 진화하는 상태와 일치하도록 프록시를 업데이트합니다. 실제 의료 시나리오에서 평가한 결과, 계산 비용을 66.7% 절감하고 모델 성능을 향상시키며 자율적인 업데이트를 달성하여 효과를 입증했습니다.