본 논문은 그래프 신경망(GNN)을 다층 퍼셉트론(MLP)으로 지식 증류하는 링크 예측 방법을 연구합니다. 기존의 GNN-to-MLP 지식 증류는 표준 GNN만을 사용하지만, 본 논문은 링크 예측 전용 GNN(GNN4LP)이나 휴리스틱 방법과 같은 다양한 teacher 모델을 탐구합니다. 실험 결과, 강력한 teacher가 항상 강력한 student를 만들지는 않으며, 오히려 간단한 GNN이나 휴리스틱 방법이 효율적인 학습 비용으로 GNN에 근접한 성능을 내는 MLP를 학습시킬 수 있음을 발견했습니다. 이러한 통찰을 바탕으로, 게이팅 메커니즘을 통해 상호 보완적인 신호를 효과적으로 통합하는 Ensemble Heuristic-Distilled MLPs (EHDM)를 제안합니다. 10개의 데이터셋에 대한 실험 결과, 기존 GNN-to-MLP 방법보다 평균 7.93% 향상된 성능을 1.95~3.32배 적은 학습 시간으로 달성함을 보였습니다.