본 논문은 지식 그래프를 대규모 언어 모델(LLM)에 통합하는 다양한 방법들의 성능에 대한 포괄적인 벤치마크 연구를 제시합니다. 기존 연구들이 지식 그래프를 텍스트로 변환하여 LLM이 처리할 수 있도록 하는 여러 방법들을 제안했지만, 이러한 텍스트 변환 과정이 LLM 성능에 미치는 영향은 충분히 연구되지 않았습니다. 따라서 논문에서는 KG-LLM-Bench라는 새로운 벤치마크를 제시하고, 다양한 기본 모델들과 텍스트 변환 전략들을 사용하여 실험을 수행함으로써 지식 그래프 추론 작업에서 LLM 성능을 최적화하기 위한 통찰력을 제공합니다. 다섯 가지 지식 그래프 이해 과제와 일곱 가지 언어 모델, 다섯 가지 텍스트 변환 전략을 사용하여 광범위한 실험을 진행했습니다.