Trong bài báo này, chúng tôi đề xuất SubZero, một phương pháp tối ưu hóa hiệu quả về bộ nhớ để tinh chỉnh các mô hình ngôn ngữ quy mô lớn (LLM). Các phương pháp tối ưu hóa bậc không hiện có gặp phải vấn đề là phương sai của ước lượng gradient tăng tuyến tính theo chiều của mô hình, và SubZero giải quyết vấn đề này bằng cách sử dụng nhiễu loạn chiều thấp. SubZero cải thiện hiệu suất huấn luyện đồng thời giảm mức tiêu thụ bộ nhớ, và hội tụ nhanh hơn các phương pháp tối ưu hóa bậc không hiện có. Thông qua kết quả thực nghiệm, chúng tôi xác minh tính ưu việt của SubZero trên các tác vụ mô hình hóa ngôn ngữ khác nhau, và chúng tôi công bố mã nguồn.