[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

LoRA Done RITE: Robust Invariant Transformation Equilibration for LoRA Optimization

Created by
  • Haebom

作者

Jui-Nan Yen, Si Si, Zhao Meng, Felix Yu, Sai Surya Duvvuri, Inderjit S. Dhillon, Cho-Jui Hsieh, Sanjiv Kumar

概要

本論文では、低ランク適応(LoRA)のパラメータ効率的な微調整方法における既存のオプティマイザの変換不変性欠陥問題を解決するためにLoRA-RITEを提示します。 LoRA-RITEは適応行列前処理法であり,変換不変性を達成しながら計算効率を維持する。理論的分析とGemma 2B、7B、mT5-XXLなど、さまざまなモデルやLLM操作の実験により、従来のオプティマイザと比較してパフォーマンスが向上しました。たとえば、Gemma-2BのLoRA微調整時にAdamをLoRA-RITEに置き換えた場合、Super-Natural Instructionsで4.6%の精度向上、他の4つのLLMベンチマーク(HellaSwag、ArcChallenge、GSM8K、OpenBookQA)で3.5%の精度向上を達成しました。

Takeaways、Limitations

Takeaways:
LoRA最適化における変換不変性を達成するための効率的な新しい方法(LoRA-RITE)の提示
様々なLLMモデルと作業における既存の方法と比較した性能向上を実験的に検証
LoRAベースの微調整の効率と性能の改善に貢献
Limitations:
提示された方法の一般化性能に関するさらなる研究の必要性
他のタイプのLLMまたは微調整方法の適用性レビューが必要です。
LoRA-RITEの計算コストのより詳細な分析が必要
👍