본 논문은 그래프 표현 학습의 핵심 문제인 링크 예측을 위해 Generalized Graph Transformer Variational Autoencoder (GGT-VAE)를 제안합니다. GGT-VAE는 Generalized Graph Transformer 아키텍처와 Variational Autoencoder 프레임워크를 통합하여 링크 예측을 수행합니다. 메시지 전달 방식에 의존하지 않고, 변압기 스타일의 글로벌 self-attention 메커니즘과 Laplacian positional encoding을 활용하여 노드 간의 구조적 패턴을 잠재 공간에 모델링합니다. 여러 벤치마크 데이터셋에 대한 실험 결과는 GGT-VAE가 ROC-AUC 및 Average Precision 측면에서 기준선 이상의 성능을 일관되게 달성함을 보여줍니다. 본 연구는 변분 프레임워크에서 일반화된 그래프 변압기 백본을 사용하여 그래프 구조 생성을 탐구하는 최초의 연구 중 하나입니다.