본 논문은 대규모 언어 모델(LLM)의 계산 효율성을 향상시키기 위해, 기존의 밀집형(dense) 변환기를 정적이고 고차원적인 전문가 혼합(Mixture-of-Experts, MoE) 구조로 변환하는 훈련 없는(training-free) 결정론적(deterministic) 변환 방법인 MLPMoE(MLP Mixture-of-Experts)를 제안한다. 이 변환은 텐서 슬라이싱과 합산만으로 이루어지며, 텐서 병렬 처리를 분산 학습 패턴이 아닌 위상 변환으로 재해석한다. 또한 Fractal Fade(차등 분기 희소성)와 Compensated Pruning(분산 보존 분기 축소)을 도입하여 구조적 희소성을 구현한다. Qwen2.5-0.5B-Instruct 및 DeepSeek-R1-Distill-Llama-8B 모델에 적용한 결과, 프록시 복잡성(perplexity) 지표의 변화가 미미하며, 희소성을 통해 모델 파라미터 수를 효과적으로 줄일 수 있음을 보여준다. 해당 방법은 사전 학습된(pre-trained) 모델에 후처리(post hoc) 방식으로 적용되며, 기울기, 보정 데이터, 라우터 학습이 필요하지 않다.