Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

PaCA: Partial Connection Adaptation for Efficient Fine-Tuning

Created by
  • Haebom

저자

Sunghyeon Woo, Sol Namkung, Sunwoo Lee, Inho Jeong, Beomseok Kim, Dongsuk Jeon

개요

본 논문은 기존의 Parameter-Efficient Fine-Tuning (PEFT) 알고리즘의 한계점을 해결하기 위해 Partial Connection Adaptation (PaCA)을 제안합니다. 기존 PEFT 알고리즘은 어댑터 파라미터만 학습하여 메모리 사용량과 계산 비용을 줄이지만, 어댑터 계층과 사전 학습된 계층의 순차적 처리로 인한 지연 오버헤드 때문에 학습 시간 단축에는 효과적이지 못했습니다. PaCA는 어댑터 계층을 추가하는 대신 사전 학습된 가중치 내의 무작위로 선택된 부분 연결을 미세 조정하여 이 문제를 해결합니다. 이를 통해 어댑터와 사전 학습된 계층의 순차적 처리로 인한 시간 오버헤드를 제거하고, 부분 활성화만 저장하면 되므로 활성화 메모리도 줄일 수 있습니다. 실험 결과, PaCA는 LoRA에 비해 학습 시간을 22%, 메모리 사용량을 16% 줄이면서 유사한 정확도를 유지했습니다. 또한 양자화와 결합하여 LLaMA3.1-70B와 같은 대규모 모델의 미세 조정을 가능하게 하며, 더 긴 시퀀스로 학습이 가능하고 처리량도 향상시켰습니다.

시사점, 한계점

시사점:
기존 PEFT 알고리즘의 한계인 학습 시간 지연 오버헤드 문제를 효과적으로 해결.
LoRA 대비 학습 시간 및 메모리 사용량 감소 (각각 22%, 16%).
유사한 정확도 유지.
양자화와의 결합을 통한 대규모 모델 미세 조정 가능성.
더 긴 시퀀스 학습 및 처리량 향상 (16%).
한계점:
PaCA의 성능 향상이 모든 모델과 데이터셋에 대해 일관되게 나타나는지 추가적인 실험이 필요.
PaCA가 어떤 종류의 모델 아키텍처에 가장 적합한지에 대한 추가적인 연구가 필요.
특정 하드웨어에 대한 최적화 여부 확인 필요.
👍