본 논문은 대규모 언어 모델(LLM)의 미세 조정을 위한 메모리 효율적인 최적화 방법인 SubZero를 제안합니다. 기존의 영차(Zeroth-order) 최적화 방법들은 기울기 추정의 분산이 모델의 차원에 따라 선형적으로 증가하는 문제점을 가지고 있는데, SubZero는 저차원 섭동을 이용하여 이 문제를 해결합니다. SubZero는 메모리 소비를 줄이면서 훈련 성능을 향상시키며, 기존의 영차 최적화 방법들보다 빠른 수렴 속도를 보입니다. 실험 결과를 통해 다양한 언어 모델링 작업에서 SubZero의 우수성을 검증하고, 소스 코드를 공개하였습니다.