Este artículo presenta UAR-NVC (Unified AutoRegressive Framework for Memory-Eficient Neural Video Compression), un novedoso framework que aplica el procesamiento fotograma a fotograma de frameworks de compresión de vídeo existentes a las INR para abordar el problema del consumo de memoria en la compresión de vídeo mediante Representaciones Neuronales Implícitas (INR). UAR-NVC integra frameworks de compresión de vídeo basados en INR y existentes desde una perspectiva de modelado autorregresivo temporal, segmentando un vídeo en múltiples clips y utilizando una instancia de modelo INR diferente para cada clip. Diseñamos dos módulos para optimizar la inicialización, el entrenamiento y la compresión de los parámetros del modelo y reducir la redundancia temporal entre clips. La latencia se puede ajustar variando la duración del clip, y los resultados experimentales muestran un rendimiento mejorado en comparación con varios modelos de referencia.