본 논문은 대규모 언어 모델(LLM)의 희소 전문가 혼합(MoE) 아키텍처에서 발생하는 로드 불균형 문제를 해결하기 위해 고안된 새로운 MoE 그래프 기반 프레임워크인 GMoE를 소개합니다. GMoE는 전문가 간의 협업 신호를 포착하는 그래프 라우터 함수를 사용하고, 푸아송 분포 기반 구분 전략과 정규 분포 기반 균형 전략을 통해 각 전문가의 능력을 향상시키고 모델 안정성을 높입니다. Low-Rank Adaptation (LoRA)을 활용하여 실험을 진행했으며, 4개의 벤치마크 데이터셋에서 GMoE의 효과를 입증했습니다.