PuzzleMoE는 MoE(Mixture-of-Experts) 모델의 높은 메모리 오버헤드를 해결하기 위해 제안된 훈련 없는 압축 방법입니다. PuzzleMoE는 요소별 가중치 중복성과 전문성을 파악하여 희소 전문가 병합을 수행하고, 이진 마스크 저장 오버헤드를 피하기 위해 비트 패킹 인코딩 방식을 도입합니다. 이를 통해 최대 50%까지 MoE 모델을 압축하면서 정확도를 유지하고, 이전 압축 방법보다 MMLU에서 최대 16.7%의 성능 향상 및 최대 1.28배의 추론 속도 향상을 달성합니다.