본 논문은 비디오 인페인팅(손상된 비디오 콘텐츠 복원) 분야의 한계점을 해결하기 위해 새로운 이중 스트림 패러다임인 VideoPainter를 제안합니다. 기존 방법들의 한계인 완전히 가려진 객체 생성의 어려움 및 배경 맥락 보존과 전경 생성의 균형 문제를 해결하기 위해, 효율적인 context encoder를 활용하여 마스크된 비디오를 처리하고, 사전 훈련된 비디오 DiT에 배경 맥락 정보를 주입하는 방식을 채택했습니다. 이를 통해 모델 학습 복잡성을 크게 줄이면서 배경 맥락을 정교하게 통합합니다. 또한, 임의 길이 비디오 인페인팅을 가능하게 하는 새로운 target region ID resampling 기법과, 39만 개 이상의 다양한 클립으로 구성된 대규모 비디오 인페인팅 데이터셋 및 벤치마크인 VPData 및 VPBench를 제시합니다. VideoPainter는 비디오 편집 및 비디오 편집 쌍 데이터 생성과 같은 다운스트림 응용 분야에도 적용되어 우수한 성능을 보여줍니다. 실험 결과, VideoPainter는 비디오 품질, 마스크 영역 보존, 텍스트 일관성 등 8가지 주요 지표에서 우수한 성능을 달성했습니다.