본 논문은 대규모 AI 모델 개발의 두 가지 주요 과제, 즉 막대한 계산 자원 소모 및 배포의 어려움, 그리고 이질적이고 복잡한 데이터에 대한 적합성의 어려움을 해결하기 위해 등장한 전문가 혼합(MoE) 모델에 대한 종합적인 분석을 제공합니다. MoE는 입력 데이터를 처리하기 위해 가장 관련성이 높은 하위 모델을 동적으로 선택하고 활성화함으로써 모델 성능과 효율성을 크게 향상시키는 것으로 나타났습니다. 본 논문에서는 MoE의 기본 설계(게이팅 함수, 전문가 네트워크, 라우팅 메커니즘, 훈련 전략, 시스템 설계)를 소개하고, 지속 학습, 메타 학습, 다중 작업 학습, 강화 학습과 같은 중요한 머신러닝 패러다임에서 MoE의 알고리즘 설계를 탐구합니다. 또한 MoE를 이해하기 위한 이론적 연구를 요약하고, 컴퓨터 비전 및 자연어 처리 분야에서의 응용 사례를 검토하며, 유망한 미래 연구 방향을 논의합니다. 기존 MoE 관련 설문조사의 한계(시대에 뒤떨어짐, 특정 주요 영역에 대한 논의 부족)를 해결하고자 합니다.