Sign In

PaCA: Partial Connection Adaptation for Efficient Fine-Tuning

Created by
  • Haebom
Category
Empty

저자

Sunghyeon Woo, Sol Namkung, Sunwoo Lee, Inho Jeong, Beomseok Kim, Dongsuk Jeon

개요

본 논문은 기존의 Parameter-Efficient Fine-Tuning (PEFT) 알고리즘의 한계점인 훈련 시간 단축 실패 문제를 해결하기 위해 Partial Connection Adaptation (PaCA) 기법을 제안합니다. PaCA는 어댑터 레이어를 추가하는 대신 미리 훈련된 가중치 내의 부분적인 연결을 무작위로 선택하여 미세 조정함으로써, 어댑터 레이어와 사전 훈련된 레이어의 순차적 처리로 인한 지연 오버헤드를 제거합니다. 이는 훈련 속도 향상과 활성화 메모리 감소로 이어집니다. 실험 결과, LoRA와 비교하여 PaCA는 훈련 시간을 22%, 메모리 사용량을 16% 줄이면서 유사한 정확도를 유지했습니다. 또한, 양자화와의 결합을 통해 LLaMA3.1-70B와 같은 대규모 모델의 미세 조정을 가능하게 하며, 더 긴 시퀀스 길이(23% 증가)와 향상된 처리량(16% 증가)을 보였습니다.

시사점, 한계점

시사점:
PEFT 알고리즘의 훈련 시간 단축 문제 해결에 대한 새로운 접근 방식 제시
LoRA 대비 훈련 시간 및 메모리 사용량 감소 효과 확인 (각각 22%, 16%)
더 긴 시퀀스 길이(23% 증가)와 향상된 처리량(16% 증가) 달성
양자화와의 결합을 통한 대규모 모델 미세 조정 가능성 제시
NVIDIA A100 GPU와 INTEL Gaudi2 HPU 모두에서 성능 향상 확인
한계점:
PaCA의 성능이 다양한 모델과 데이터셋에 대해 얼마나 일반화될 수 있는지 추가적인 연구 필요
무작위로 선택된 부분 연결의 최적화된 선택 전략에 대한 추가 연구 필요
특정 하드웨어 환경에 최적화된 알고리즘일 가능성 존재, 다른 하드웨어 환경에서의 성능 검증 필요
👍