본 논문은 대규모 사전 학습된 딥러닝 모델의 파라미터 효율적인 미세 조정(PEFT)에 초점을 맞추고 있습니다. 기존 PEFT 방법들이 일부 파라미터 조정, 가중치 재매개변수화, 프롬프트 엔지니어링에 집중하는 것과 달리, 본 논문은 사전 학습된 모델의 여러 레이어들을 서로 다른 유형의 언어 정보를 추출하는 전문가로 보고, 이들을 조합하여 사용하는 새로운 방법을 제안합니다. 이는 층의 혼합물을 조건부로 계산하는 Mixture of Layer Experts (MoLEx)라는 새로운 희소 전문가 혼합(SMoE) 모델입니다. MoLEx는 레이어 간 정보 교환을 가능하게 하여 다운스트림 작업에 대한 더욱 정확한 예측을 가능하게 하며, 동일한 유효 파라미터 수로 더 나은 미세 조정 결과를 얻을 수 있습니다. 또한, 전문가들이 병렬로 처리될 수 있으므로 추가적인 계산 오버헤드가 최소화됩니다. GLUE 벤치마크와 End-to-End Challenge (E2E)를 포함한 다양한 다운스트림 미세 조정 작업에서 MoLEx의 효과를 실험적으로 검증하고, 코드를 공개적으로 제공합니다.