본 논문은 시간적 일관성이 부족한 텍스트-비디오 확산 모델의 문제점을 해결하기 위해, 옵티컬 플로우를 이용한 새로운 프레임워크인 MotionPrompt를 제안합니다. MotionPrompt는 실제 비디오와 생성 비디오의 프레임 쌍 간 옵티컬 플로우를 구분하도록 학습된 판별기를 사용합니다. 판별기의 그래디언트를 역방향 샘플링 단계에서 학습 가능한 토큰 임베딩을 최적화하는 데 사용하여, 자연스러운 움직임 역학을 반영하면서도 생성 콘텐츠의 충실도를 유지하는 시각적으로 일관된 비디오 시퀀스를 생성합니다. 다양한 모델에서 본 방법의 효과를 보여줍니다.