본 논문은 장 tail 분포를 따르는 실세계 그래프 데이터에서 그래프 신경망(GNN)의 일반화 성능 저하 문제를 해결하기 위해, 대규모 언어 모델(LLM)을 활용한 새로운 Vicinal Risk Minimization(VRM) 프레임워크인 SaVe-TAG를 제안합니다. SaVe-TAG는 소수 클래스에 대해 on-manifold, boundary-enriching 합성 샘플을 생성하기 위해 LLM을 이용한 텍스트 수준 보간을 수행합니다. 또한, 잡음이 많은 생성을 완화하기 위해 그래프 토폴로지를 이용한 신뢰도 기반 에지 할당 메커니즘을 도입하여 구조적 일관성을 유지합니다. 벤치마크 데이터셋에 대한 실험 결과, SaVe-TAG는 기존의 숫자 보간 및 장 tail 노드 분류 기준 모델들을 능가하는 성능을 보이며, 텍스트 속성 그래프에서 균형 있고 효과적인 학습을 위해 의미론적 및 구조적 신호를 통합하는 것이 중요함을 강조합니다.