본 논문은 자원 제약 환경에서의 배포를 어렵게 만드는 대규모 인과 언어 모델의 문제점을 해결하기 위해, 지식 증류 기법을 활용한 새로운 방법인 시간적 적응 보간 증류(Temporally Adaptive Interpolated Distillation, TAID)를 제안합니다. TAID는 교사 모델과 학생 모델 간의 용량 차이, 모드 평균화, 모드 붕괴 문제를 해결하기 위해, 학생 모델의 초기 분포에서 교사 모델의 분포로 점진적으로 이동하는 적응적 중간 분포를 통해 학생과 교사 분포를 동적으로 보간합니다. 이론적 분석과 실험을 통해 TAID가 모드 붕괴를 방지하고 용량 차이를 해결하며 모드 평균화와 모드 붕괴 간의 균형을 맞추는 효과를 보임을 입증합니다. 다양한 모델 크기와 아키텍처, 그리고 instruction tuning과 사전 훈련 시나리오에서 우수한 성능을 보이며, 최첨단 소형 기초 모델인 TAID-LLM-1.5B (언어 작업용)과 TAID-VLM-2B (시각-언어 작업용)을 개발하여 TAID의 실용성을 입증합니다.