지식 그래프 완성(Knowledge Graph Completion)과 같은 지식 집약적인 작업을 위해 지식 그래프(Knowledge Graphs)와 대규모 언어 모델(Large Language Models)을 융합하는 것이 중요합니다. 기존의 prefix-tuning 방식은 지식 임베딩과 텍스트 입력을 단순히 연결하지만, 본 논문에서는 지식 그래프 내 풍부한 관계적 의미론을 간과하고 LLM에게 prefix와 텍스트를 연관시키는 상당한 암묵적 추론 부담을 안겨준다는 문제점을 지적합니다. 이러한 문제점을 해결하기 위해, 본 논문은 Semantic-condition Tuning (SCT)을 제안합니다. SCT는 Graph Neural Network를 사용하여 지식 향상 관계를 기반으로 로컬 그래프 이웃에서 컨텍스트를 인식하는 의미적 조건을 추출하는 Semantic Graph Module과, 이 조건을 Condition-Adaptive Fusion Module에 전달하여 텍스트 임베딩을 적응적으로 조절하는 두 개의 파라미터화된 프로젝터를 통해 깊고, 특징적이며, 지식을 인식하는 상호 작용을 가능하게 합니다. 최종적으로 LLM은 이 pre-fused 임베딩을 기반으로 fine-tuning됩니다.