본 논문은 기존의 Parameter-Efficient Fine-Tuning (PEFT) 알고리즘의 한계점인 훈련 시간 단축 실패 문제를 해결하기 위해 Partial Connection Adaptation (PaCA) 기법을 제안합니다. PaCA는 어댑터 레이어를 추가하는 대신 미리 훈련된 가중치 내의 부분적인 연결을 무작위로 선택하여 미세 조정함으로써, 어댑터 레이어와 사전 훈련된 레이어의 순차적 처리로 인한 지연 오버헤드를 제거합니다. 이는 훈련 속도 향상과 활성화 메모리 감소로 이어집니다. 실험 결과, LoRA와 비교하여 PaCA는 훈련 시간을 22%, 메모리 사용량을 16% 줄이면서 유사한 정확도를 유지했습니다. 또한, 양자화와의 결합을 통해 LLaMA3.1-70B와 같은 대규모 모델의 미세 조정을 가능하게 하며, 더 긴 시퀀스 길이(23% 증가)와 향상된 처리량(16% 증가)을 보였습니다.