본 논문은 기존의 Parameter-Efficient Fine-Tuning (PEFT) 방법들이 하위 작업의 맥락이나 유지해야 할 중요한 지식의 맥락을 고려하지 않고 어댑터를 구축하기 때문에 성능 저하 및 catastrophic forgetting 문제가 발생하는 점을 지적합니다. 이를 해결하기 위해, 하위 작업의 맥락이나 유지해야 할 세계 지식을 기반으로 학습 가능한 작업별 어댑터를 구축하는 Context-oriented Decomposition Adaptation (CorDA) 방법을 제안합니다. CorDA는 소량의 데이터 샘플을 사용하여 사전 훈련된 LLM의 각 선형 레이어에 대한 특이값 분해를 수행하고, 이를 통해 하위 작업이나 세계 지식을 유지하는 데 필요한 가중치를 재구성합니다. 이는 지식 보존 적응과 지시 예시 적응 두 가지 옵션을 제공합니다. 지식 보존 적응은 질의응답 샘플을 사용하여 공분산 행렬을 얻고, 가장 작은 r개의 특이값을 가진 분해된 구성 요소를 사용하여 학습 가능한 어댑터를 초기화하며, 나머지는 고정하여 세계 지식을 보존합니다. 지시 예시 적응은 수학이나 코딩과 같은 미세 조정 작업의 지시 데이터를 사용하여 분해 방향을 정하고, 학습할 작업과 가장 관련성이 높은 가장 큰 r개의 구성 요소를 훈련합니다. 수학, 코드 및 지시 따르기 작업에 대한 광범위한 실험을 수행합니다.