[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LoRA Done RITE: Robust Invariant Transformation Equilibration for LoRA Optimization

Created by
  • Haebom

저자

Jui-Nan Yen, Si Si, Zhao Meng, Felix Yu, Sai Surya Duvvuri, Inderjit S. Dhillon, Cho-Jui Hsieh, Sanjiv Kumar

개요

본 논문은 저랭크 적응(LoRA)의 매개변수 효율적인 미세 조정 방법에서 기존 최적화기의 변환 불변성 결여 문제를 해결하기 위해 LoRA-RITE를 제시합니다. LoRA-RITE는 적응적 행렬 전처리 방법으로, 변환 불변성을 달성하면서 계산 효율성을 유지합니다. 이론적 분석과 Gemma 2B, 7B, mT5-XXL 등 다양한 모델과 LLM 작업에 대한 실험을 통해 기존 최적화기 대비 성능 향상을 보였습니다. 예를 들어, Gemma-2B의 LoRA 미세 조정 시 Adam을 LoRA-RITE로 대체했을 때 Super-Natural Instructions에서 4.6%의 정확도 향상, 다른 네 가지 LLM 벤치마크(HellaSwag, ArcChallenge, GSM8K, OpenBookQA)에서 3.5%의 정확도 향상을 달성했습니다.

시사점, 한계점

시사점:
LoRA 최적화에서 변환 불변성을 달성하는 효율적인 새로운 방법(LoRA-RITE) 제시.
다양한 LLM 모델과 작업에서 기존 방법 대비 성능 향상을 실험적으로 검증.
LoRA 기반 미세 조정의 효율성과 성능을 개선하는 데 기여.
한계점:
제시된 방법의 일반화 성능에 대한 추가적인 연구 필요.
다른 유형의 LLM 또는 미세 조정 방법에 대한 적용성 검토 필요.
LoRA-RITE의 계산 비용에 대한 더 자세한 분석 필요.
👍