본 논문은 대규모 트랜스포머 기반 확산 모델을 이용한 텍스트-비디오 생성 분야의 최근 발전에도 불구하고, 기존 모델들이 짧은 영상만 생성하며 실시간 상호작용 애플리케이션에 제약이 있다는 점을 지적합니다. 이에 본 논문에서는 실시간 스트리밍 비디오 생성 모델인 StreamDiT를 제안합니다. StreamDiT는 이동 버퍼를 추가한 흐름 매칭 기반 학습과 다양한 버퍼 프레임 분할 방식을 활용한 혼합 학습을 통해 콘텐츠 일관성과 화질을 향상시킵니다. 변형 시간 임베딩과 윈도우 어텐션을 사용하는 adaLN DiT 기반 모델링을 채택하며, 40억 개의 파라미터를 가진 StreamDiT 모델을 학습시켰습니다. 또한, StreamDiT에 맞춤화된 다단계 증류 방법을 제안하여, 각 분할 구간에서 샘플링 증류를 수행하고 함수 평가 횟수를 줄여 실시간 성능(16 FPS, 512p 해상도)을 달성했습니다. 정량적 지표와 사람 평가를 통해 성능을 검증하였으며, 스트리밍 생성, 상호작용 생성, 비디오-비디오 변환 등 실시간 애플리케이션에 활용 가능성을 제시합니다.