본 논문은 대규모 언어 모델을 여러 작업에 적용할 때 발생하는 상호 간섭 문제(cross-skill interference)를 해결하기 위해 새로운 방법인 Compositional Subspace Representation Fine-tuning (CS-ReFT)을 제안합니다. 기존의 LoRA와 같은 방법들이 가중치 수준에서 직교성 제약을 부과하지만, 은닉 상태 표현에서의 간섭을 완전히 해결하지 못하는 한계를 극복하기 위해, CS-ReFT는 각각 다른 기술에 특화된 여러 개의 직교 부분 공간 변환을 학습하고, 가벼운 라우터를 통해 이들을 조합하는 표현 기반 접근 방식을 사용합니다. 가중치 행렬이 아닌 은닉 상태에서 이러한 부분 공간 편집을 격리함으로써, CS-ReFT는 작업 간 충돌을 더 효과적으로 방지합니다. Llama-2-7B에 CS-ReFT를 적용한 결과, AlpacaEval 벤치마크에서 93.94%의 승률을 달성하여 GPT-3.5 Turbo (86.30%)를 능가했으며, 모델 매개변수의 0.0098%만을 사용했습니다. 이는 간단한 라우터를 통해 조합된 특수화된 표현 편집이 최소한의 오버헤드로 다중 작업 지시 사항 따르기를 크게 향상시킨다는 것을 보여줍니다.