Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

HD-PiSSA: High-Rank Distributed Orthogonal Adaptation

Created by
  • Haebom

저자

Yiding Wang, Fauxu Meng, Xuefeng Zhang, Fan Jiang, Pingzhi Tang, Muhan Zhang

개요

본 논문은 기존의 파라미터 효율적인 미세 조정(PEFT) 방법인 LoRA와 PiSSA의 한계를 극복하기 위해 High-rank Distributed PiSSA (HD-PiSSA)를 제안합니다. LoRA와 PiSSA는 모델 업데이트를 저랭크 부분공간으로 제한하여 복잡한 작업에서 최적의 성능을 발휘하지 못하는데, HD-PiSSA는 여러 장치에 걸쳐 직교 어댑터를 초기화하고 미세 조정을 위해 W에 대한 델타 업데이트를 집계하여 이 문제를 해결합니다. 데이터 병렬 LoRA나 PiSSA와 달리 각 GPU에 사전 훈련된 가중치의 서로 다른 주성분을 할당하여 업데이트 방향의 범위를 크게 확장합니다. 8개의 GPU를 사용하여 미세 조정할 때, 동일한 장치당 어댑터 랭크로 LoRA나 PiSSA보다 16배 이상 높은 유효 업데이트 랭크를 달성합니다. 수학, 코드 생성, 다중 작업 학습 등 다양한 복잡한 다운스트림 작업에서 HD-PiSSA를 평가했으며, 다중 작업 설정에서 12개의 벤치마크에 걸쳐 LoRA보다 10.0점(14.63%), PiSSA보다 4.98점(6.60%)의 평균 성능 향상을 보였습니다.

시사점, 한계점

시사점:
기존 PEFT 방법(LoRA, PiSSA)의 저랭크 제한으로 인한 성능 저하 문제 해결
분산 환경에서 고랭크 업데이트를 가능하게 하여 더욱 효과적인 미세 조정 가능
다양한 다운스트림 작업(수학, 코드 생성, 다중 작업 학습)에서 기존 방법 대비 성능 향상을 실험적으로 검증
다중 작업 학습에서 상당한 성능 향상 (LoRA 대비 14.63%, PiSSA 대비 6.60%)
한계점:
본 논문에서는 특정 하드웨어 환경(8개의 GPU)에서의 성능을 평가하였으므로, 다른 환경에서의 일반화 가능성에 대한 추가 연구 필요
다양한 크기의 모델과 데이터셋에 대한 추가적인 실험이 필요
HD-PiSSA의 계산 비용 및 메모리 요구사항에 대한 자세한 분석이 부족
👍
You do not have permission to write comments