본 논문은 신경망 기반 음성합성(TTS) 모델에서 중요한 요소인 음성-텍스트 정렬에 초점을 맞추고 있습니다. 자동회귀 TTS 모델은 일반적으로 어텐션 메커니즘을 사용하여 온라인으로 정렬을 학습하는 반면, 비자동회귀 end-to-end TTS 모델은 외부 소스에서 추출한 지속 시간에 의존합니다. 본 논문에서는 주어진 텍스트로부터 유망한 음소 수준 지속 시간 분포를 제공할 수 있는 새로운 지속 시간 예측 프레임워크를 제안합니다. 실험 결과, 제안된 지속 시간 모델은 기존 기준 모델에 비해 더 정확한 예측 및 조건에 대한 적응력을 보여줍니다. 특히, 음소 수준 정렬 정확도를 상당히 향상시키고 제로샷 TTS 모델의 성능을 프롬프트 오디오와 입력 오디오 간의 불일치에 대해 더욱 강력하게 만듭니다.