본 논문은 대규모 언어 모델(LLM) 추론 가속화의 핵심 과제인 추측적 디코딩(Speculative Decoding, SD)의 한계를 극복하기 위해, 서로 다른 어휘를 가진 모델 간에도 적용 가능한 TokenTiming 알고리즘을 제안한다. 시간 시계열 정렬 알고리즘인 동적 시간 워핑(Dynamic Time Warping, DTW)을 활용하여, 초안 토큰 시퀀스를 재인코딩하고 DTW를 통해 확률 분포를 이전함으로써 모델 재훈련이나 수정 없이 다양한 모델에 적용 가능하다.