본 논문은 대규모 언어 모델의 매개변수 효율적인 미세 조정을 위한 새로운 프레임워크인 AROMA를 제안합니다. 기존의 저계수 적응(LoRA) 및 적응형 저계수 적응(AdaLoRA) 방법의 한계를 극복하기 위해, AROMA는 계층별 업데이트를 자동으로 구성하는 이중 루프 아키텍처를 사용합니다. 내부 루프는 각 계수-1 부분 공간에서 정보를 추출하고, 외부 루프는 최적의 계수(즉, 계수-1 부분 공간의 수)를 결정합니다. 매개변수 수를 크게 줄이면서 자연어 이해 및 상식 추론 작업에서 우수한 성능을 달성합니다.