본 논문은 텍스트-비디오(T2V) 모델이 비디오 내에서 읽을 수 있고 일관된 텍스트를 생성하는 데 어려움을 겪는 문제를 해결하기 위해, 가벼운 접근 방식을 제시합니다. 구체적으로, 텍스트-이미지(T2I) 모델을 사용하여 텍스트가 풍부한 이미지를 생성하고, 이를 텍스트 무관 이미지-비디오(I2v) 모델로 짧은 비디오로 변환하여 합성 데이터셋을 구축합니다. 이 데이터셋을 사용하여 사전 훈련된 T2V 모델인 Wan2.1을 미세 조정하며, 구조적 우선순위를 통해 짧은 텍스트 가독성과 시간적 일관성을 개선합니다.