본 논문은 대규모 언어 모델(LLM)의 특정 작업이나 도메인에 대한 적응 시 발생하는 높은 계산 비용과 메모리 사용량 문제를 해결하기 위해, 매개변수 효율적인 미세 조정(PEFT) 방법 중 하나인 LoRA의 한계를 극복하는 새로운 방법인 지식 인식 특이값 적응(KaSA)을 제시합니다. KaSA는 특이값 분해(SVD)를 활용하여 작업 관련성에 따라 지식을 동적으로 활성화함으로써, 잡음이 많거나 관련 없는 지식을 무시하는 기존 LoRA의 단점을 보완합니다. 다양한 LLM과 자연어 이해(NLU), 생성(NLG), 지시 따르기, 상식 추론 등의 작업에 대한 광범위한 실험을 통해, KaSA가 16개의 벤치마크와 4개의 합성 데이터셋에서 기존 PEFT 방법들을 능가하는 성능을 보임을 확인했습니다.