Bài báo này đề cập đến việc thiếu hiểu biết về những khó khăn trong học tập của mạng nơ-ron và hiện tượng quên thảm khốc (CF) trong môi trường không tĩnh tại. Chúng tôi nghiên cứu một cách có hệ thống các tác động của kích thước mô hình và mức độ học thuộc tính lên học liên tục. Chúng tôi dung hòa những phát hiện mâu thuẫn từ các nghiên cứu trước đây bằng cách phân biệt giữa phương pháp học lười và học giàu thông qua tham số hóa kiến trúc. Chúng tôi chứng minh rằng việc tăng chiều rộng mô hình chỉ có lợi khi nó làm giảm lượng học thuộc tính, do đó làm tăng học lười. Sử dụng khuôn khổ của lý thuyết trường trung bình động, chúng tôi nghiên cứu động lực học vô hạn chiều rộng của các mô hình trong không gian học thuộc tính và mô tả CF bằng cách mở rộng các phát hiện lý thuyết trước đây chỉ giới hạn trong không gian học lười. Chúng tôi nghiên cứu mối quan hệ phức tạp giữa học thuộc tính, tính không tĩnh tại của tác vụ và tình trạng quên, nhận thấy rằng học thuộc tính cao chỉ có lợi cho các tác vụ tương tự. Chúng tôi chứng minh một sự chuyển giao được trung gian bởi tính tương đồng của tác vụ, trong đó các mô hình thoát khỏi không gian học lười với mức độ quên thấp và đi vào không gian học giàu với mức độ quên đáng kể. Cuối cùng, chúng tôi chứng minh rằng mạng nơ-ron đạt hiệu suất tối ưu ở mức học thuộc tính tối ưu, thay đổi tùy theo tính không tĩnh tại của tác vụ, và sự chuyển giao này đúng với mọi kích thước mô hình. Nghiên cứu này cung cấp góc nhìn tổng hợp về vai trò của học theo thang đo và học theo đặc điểm trong học tập liên tục.