본 연구는 기존 단일 이미지 초고해상도 생성적 적대 신경망(SRGAN) 구조를 확장하여 시공간 데이터를 처리하는 향상된 비디오 초고해상도 기법을 제시합니다. SRGAN은 단일 이미지 향상에 효과적이지만, 비디오 처리에 필요한 시간적 연속성을 고려하지 않습니다. 이를 해결하기 위해 3D 비국소 블록을 통합한 수정된 프레임워크를 제안하여 공간 및 시간적 차원 모두의 관계를 포착합니다. 실제 비디오 조건을 시뮬레이션하고 국소 및 전역 구조와 세부 정보를 학습하기 위해 패치 단위 학습과 고급 데이터 저하 기법을 기반으로 실험적 학습 파이프라인을 개발했습니다. 이를 통해 모델은 다양한 비디오 콘텐츠에서 안정성을 유지하면서 일반화 능력을 향상시키고 픽셀 단위 정확도 외에도 일반적인 구조를 유지합니다. 성능과 효율성 간의 절충점을 탐색하기 위해 크기가 큰 모델과 경량 모델의 두 가지 변형 모델을 제시합니다. 결과는 기존 단일 이미지 방법에 비해 향상된 시간적 일관성, 더 선명한 질감, 그리고 시각적 아티팩트 감소를 보여줍니다. 본 연구는 스트리밍, 게임 및 디지털 복원과 같은 응용 분야를 가진 실용적인 학습 기반 비디오 향상 솔루션 개발에 기여합니다.