본 논문은 대규모 사전 훈련된 모델을 최소한의 매개변수 업데이트로 미세 조정하는 데 널리 사용되는 기법인 저계수 적응(LoRA)의 한계를 극복하기 위해, 기울기 기반 중요도 점수에 따라 계수를 동적으로 가지치기하고 확장하는 적응형 저계수 적응 프레임워크인 ElaLoRA를 제안합니다. 기존의 LoRA 방법들은 고정된 계수를 사용하거나 가지치기 또는 확장 중 하나에만 집중하는 반면, ElaLoRA는 미세 조정 중에 계수를 동적으로 가지치기하고 확장하여 각 레이어의 중요도에 맞춥니다. 다양한 벤치마크에 대한 실험 결과, ElaLoRA는 다양한 매개변수 예산에서 기존 PEFT 방법들을 일관되게 능가하며, 더 높은 계수가 할당된 레이어가 모델 성능에 더 크게 기여함을 보여줍니다. 이는 ElaLoRA의 적응형 전략에 대한 이론적 근거를 제공합니다.