본 논문은 그래프 구조 데이터의 스트리밍 학습에서 발생하는 catastrophic forgetting 문제를 해결하기 위해 대규모 언어 모델(LLM)을 활용하는 방법을 제시합니다. 기존의 GCL(Graph Continual Learning) 연구들이 스트리밍 데이터로부터 처음부터 학습하는 방식에 의존하는 것과 달리, 본 연구는 사전 학습된 모델의 강력한 일반화 능력을 활용합니다. 기존 GCL 평가 방식의 문제점(task ID leakage)을 지적하고, 더 현실적인 시나리오에서 LLM의 성능을 평가합니다. 결과적으로, 간단하지만 효과적인 SimGCL(Simple Graph Continual Learning) 방법을 제안하며, 기존 최고 성능의 GNN 기반 방법보다 약 20% 향상된 성능을 rehearsal-free 조건 하에서 달성합니다. 또한, 기존 GCL 방법의 훈련 및 평가를 위한 사용하기 쉬운 벤치마크 LLM4GCL을 개발하여 공개합니다.