본 논문은 대규모 언어 모델의 높은 계산 비용 문제를 해결하기 위해, 템포럴 디퍼런스 학습(Temporal Difference Learning) 기반의 증류(Distillation) 프레임워크를 제안한다. 특히, 교사 모델(Teacher Model)의 분포적 희소성(distributional sparsity)을 활용하여, 어휘의 부분 집합(reduced action space)에서 작동하는 프레임워크를 설계하고, 이를 통해 효율적인 모델 압축을 달성하고자 한다.