Xiaohui Chen, Yinkai Wang, Jiaxing He, Yuanqi Du, Soha Hassoun, Xiaolin Xu, Li-Ping Liu
개요
본 논문은 그래프 생성 모델링을 위해 노드 집합과 엣지 집합의 시퀀스로 그래프를 나타내는 새로운 접근 방식을 제안합니다. 기존의 인접 행렬 기반 접근 방식과 달리 효율적인 그래프 인코딩을 제공하며, 이를 기반으로 자기회귀 모델인 Graph Generative Pre-trained Transformer (G2PT)를 제시합니다. G2PT는 다음 토큰 예측을 통해 그래프 구조를 학습하며, 목표 지향적 생성 및 그래프 속성 예측과 같은 다양한 하위 작업에 대한 파인튜닝 전략을 탐구합니다. 다양한 데이터셋에 대한 실험 결과, G2PT는 일반 그래프와 분자 데이터셋 모두에서 우수한 생성 성능을 보이며, 분자 설계부터 속성 예측까지 다양한 하위 작업에서 강력한 적응성과 다재다능성을 나타냅니다. 소스 코드는 https://github.com/tufts-ml/G2PT 에서 확인할 수 있습니다.