[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Harmony in Divergence: Towards Fast, Accurate, and Memory-efficient Zeroth-order LLM Fine-tuning

Created by
  • Haebom

作者

Qitao Tan, Jun Liu, Zheng Zhan, Caiwei Ding, Yanzhi Wang, Xiaolong Ma, Jaewoo Lee, Jin Lu, Geng Yuan

概要

本論文では、大規模言語モデル(LLM)の微調整におけるメモリ効率的なゼロ差(ZO)最適化技術の限界を克服するために、新しい最適化技術であるDiZO(Divergence-driven Zeroth-Order optimization)を提案します。従来のZO方法は、前方パスのみを使用して傾きを推定するため、メモリ効率的ですが、収束速度と精度が一次(FO)方法に比べて著しく低下します。 DiZOは、FOとZO最適化の更新パターンの違いを分析し、階層ごとに最適化ニーズに合わせて更新サイズを調整する階層別発散駆動適応方式を導入します。実験の結果、DiZOは多様なデータセットでトレーニングGPU時間を最大48%まで短縮しながらも収束に必要な繰り返し回数を大幅に削減し、RoBERTa-large、OPTシリーズ、Llamaシリーズなどのモデル微調整で従来のZO技術を凌駕し、場合によってはメモリ集約的なFO微調整を上回る性能を見せました。

Takeaways、Limitations

Takeaways:
ゼロ車最適化により、メモリ効率の高い大規模言語モデルの微調整が可能であることを示した。
従来のゼロ車最適化の収束速度と精度問題を改善するDiZOアルゴリズムを提示
さまざまなLLMモデルとデータセットで従来の方法と比較して優れた性能を実証。
トレーニング時間とコスト削減効果を提示(最大48%減少)。
Limitations:
提示されたコードの公開リンクは匿名リンクであり、コードアクセスと検証に制限がある可能性があります。
さまざまなハイパーパラメータ設定による性能変化の分析が不足する可能性があります。
特定のタイプのLLMまたはデータセットに偏った結果である可能性。より広範な実験が必要な場合があります。
👍