본 논문은 대규모 언어 모델(LLM)의 미세 조정에서 메모리 효율적인 제로차(ZO) 최적화 기법의 한계를 극복하기 위해, 새로운 최적화 기법인 DiZO(Divergence-driven Zeroth-Order optimization)를 제안합니다. 기존 ZO 방법은 전방 패스만을 사용하여 기울기를 추정하기 때문에 메모리 효율적이지만, 수렴 속도와 정확도가 일차(FO) 방법에 비해 현저히 떨어집니다. DiZO는 FO와 ZO 최적화의 업데이트 패턴 차이를 분석하여, 계층별로 최적화 요구에 맞춰 업데이트 크기를 조절하는 계층별 발산 구동 적응 방식을 도입합니다. 실험 결과, DiZO는 다양한 데이터셋에서 훈련 GPU 시간을 최대 48%까지 단축하면서도 수렴에 필요한 반복 횟수를 크게 줄이고, RoBERTa-large, OPT 시리즈, Llama 시리즈 등의 모델 미세 조정에서 기존 ZO 기법들을 능가하며, 경우에 따라 메모리 집약적인 FO 미세 조정을 뛰어넘는 성능을 보였습니다.