Bài báo này đề xuất một kịch bản thực tế cho việc học video trong môi trường học không giám sát, trong đó việc học tác vụ liên tục diễn ra mà không có nhãn hoặc ranh giới tác vụ. Mặc dù dữ liệu video rất phức tạp và giàu thông tin không gian-thời gian, dữ liệu video vẫn chưa được nghiên cứu đầy đủ trong lĩnh vực học liên tục không giám sát. Chúng tôi giải quyết vấn đề của các nghiên cứu trước đây chỉ tập trung vào học có giám sát, vốn dựa trên nhãn và ranh giới tác vụ. Do đó, bài báo này nghiên cứu học liên tục video không giám sát (uVCL) và trình bày một giao thức thử nghiệm chuẩn chung cho uVCL, có tính đến các yêu cầu tính toán và bộ nhớ cao của xử lý video. Chúng tôi sử dụng Ước tính Mật độ Nhân (KDE) cho các đặc trưng video nhúng sâu được trích xuất bởi mạng Biến đổi Video không giám sát dưới dạng biểu diễn xác suất phi tham số. Chúng tôi giới thiệu một tiêu chí phát hiện tính mới cho dữ liệu tác vụ mới để mở rộng động các cụm bộ nhớ, từ đó thu thập kiến thức mới. Chúng tôi tận dụng việc học chuyển giao từ các tác vụ trước đó để làm trạng thái ban đầu cho việc chuyển giao kiến thức sang tác vụ học hiện tại và nhận thấy rằng phương pháp luận được đề xuất cải thiện đáng kể hiệu suất mô hình khi huấn luyện đồng thời nhiều tác vụ. Chúng tôi thực hiện đánh giá chuyên sâu mà không có nhãn hoặc ranh giới lớp trên ba tập dữ liệu nhận dạng hành động video tiêu chuẩn: UCF101, HMDB51 và Something-to-Something V2.