이 논문은 이종 그래프 신경망(HGNN)에서 MoE(Mixture-of-Experts)를 통합하는 새로운 방법을 제시합니다. 기존 HGNN은 노드/엣지 유형에 따라 매개변수를 조건화하지만, 이는 표면적인 레이블에 과도하게 의존하고 유형 간 지식 전달을 방해할 수 있습니다. 본 연구는 Heterogeneous Graph Transformers (HGT)에 Homogeneous Expert Routing (HER)을 적용하여 이러한 문제를 해결하고자 합니다. HER은 라우팅 과정에서 유형 임베딩을 확률적으로 마스킹하여 유형에 구애받지 않는 전문화를 장려합니다. IMDB, ACM, DBLP 데이터셋을 이용한 링크 예측 실험에서 HER은 기존 HGT 및 유형 분리 MoE 기반보다 우수한 성능을 보였으며, HER 전문가가 노드 유형이 아닌 의미 패턴(예: 영화 장르)에 따라 전문화됨을 확인했습니다.