본 논문은 대규모 사전 훈련 모델을 미세 조정하는 효율적인 방법인 Parameter-Efficient Fine-Tuning (PEFT) 기법을 연구한다. 특히, LoRA를 기반으로 성능을 향상시킨 DoRA의 원리를 분석하고, 이를 바탕으로 새로운 PEFT 기법을 제안한다. DoRA의 성공이 가중치 업데이트 행렬의 특이값 엔트로피를 증가시켜 균일한 업데이트 분포를 유도한다는 점을 밝히고, DoRA를 더 효율적인 행렬 형태로 재구성한다. 이 통찰력을 바탕으로, 조건 행렬의 아키텍처 배치와 변환 유형이라는 두 가지 차원을 탐구하는 통합 프레임워크를 제시한다. Pre-Diag와 SORA라는 두 가지 새로운 기법을 개발하여, LoRA 및 DoRA보다 우수한 성능과 효율성을 입증한다.