Graph Neural Networks (GNNs)의 일반화 능력 부족 문제를 해결하기 위해, Mixture-of-Experts (MoE) 아키텍처와 prompt-based learning을 결합한 GMoPE (Graph Mixture of Prompt-Experts) 프레임워크를 제안합니다. GMoPE는 전문가별 프롬프트 벡터와 구조 인식 MoE 라우팅을 활용하여 각 전문가가 특정 하위 도메인에 특화되도록 하며, 전문가 붕괴를 방지하기 위해 소프트 직교 제약 조건을 도입합니다. 또한, prompt-only fine-tuning 전략을 통해 공간적, 시간적 복잡성을 줄입니다. 다양한 사전 훈련 전략 및 다운스트림 작업에서 GMoPE의 성능을 평가한 결과, 기존 SOTA 모델을 능가하며, 전체 파라미터 fine-tuning과 유사한 성능을 보이면서도 적은 adaptation overhead를 보였습니다.