본 논문은 대규모 언어 모델(LLM)을 시간적 지식 그래프(TKG) 예측에 통합하는 기존 연구의 한계점(제한된 입력 길이, 비효율적인 출력 생성, 자원 집약적인 개선)을 해결하기 위해, SPARK라는 새로운 프레임워크를 제시합니다. SPARK는 빔 검색을 활용하여 효율적으로 다음 엔티티 분포를 생성하는 시퀀스 수준 생성 방식과, 기존 TKG 모델을 활용하여 LLM 출력을 개선하는 TKG 어댑터를 통해 비용 효율적이고 플러그 앤 플레이 방식으로 LLM의 성능을 향상시킵니다. 다양한 데이터셋에 대한 실험 결과, SPARK는 우수한 예측 성능, 견고한 일반화 능력 및 높은 효율성을 보여줍니다. 소스 코드는 깃허브에서 공개됩니다.