본 논문은 대규모 사전 학습 및 확장 가능한 심층 아키텍처의 발전으로 고품질의 지시사항을 따르는 비디오 생성이 가능해졌지만, 화면 상의 정확한 텍스트(예: 자막, 수학 공식) 렌더링 능력은 아직 미흡하다는 점을 지적합니다. 이에 따라, 화면 텍스트의 정확성과 시간적 일관성을 평가하기 위한 최초의 인간 평가 벤치마크인 T2VTextBench를 제시합니다. 복잡한 텍스트 문자열과 동적인 장면 변화를 포함하는 프롬프트 세트를 사용하여 여러 프레임에 걸쳐 세부 지시사항을 유지하는 모델의 능력을 평가하고, 10개의 최첨단 시스템을 평가한 결과 대부분의 시스템이 읽기 쉽고 일관된 텍스트를 생성하는 데 어려움을 겪는다는 것을 발견했습니다. 이는 현재 비디오 생성기의 중요한 한계를 보여주며, 비디오 합성에서 텍스트 조작을 향상시키기 위한 미래 연구의 방향을 제시합니다.