Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Semantic-Condition Tuning: Fusing Graph Context with Large Language Models for Knowledge Graph Completion

Created by
  • Haebom

저자

Ruitong Liu, Yan Wen, Te Sun, Yunjia Wu, Pingyang Huang, Zihang Yu, Siyuan Li

개요

지식 그래프 완성(Knowledge Graph Completion)과 같은 지식 집약적인 작업을 위해 지식 그래프(Knowledge Graphs)와 대규모 언어 모델(Large Language Models)을 융합하는 것이 중요합니다. 기존의 prefix-tuning 방식은 지식 임베딩과 텍스트 입력을 단순히 연결하지만, 본 논문에서는 지식 그래프 내 풍부한 관계적 의미론을 간과하고 LLM에게 prefix와 텍스트를 연관시키는 상당한 암묵적 추론 부담을 안겨준다는 문제점을 지적합니다. 이러한 문제점을 해결하기 위해, 본 논문은 Semantic-condition Tuning (SCT)을 제안합니다. SCT는 Graph Neural Network를 사용하여 지식 향상 관계를 기반으로 로컬 그래프 이웃에서 컨텍스트를 인식하는 의미적 조건을 추출하는 Semantic Graph Module과, 이 조건을 Condition-Adaptive Fusion Module에 전달하여 텍스트 임베딩을 적응적으로 조절하는 두 개의 파라미터화된 프로젝터를 통해 깊고, 특징적이며, 지식을 인식하는 상호 작용을 가능하게 합니다. 최종적으로 LLM은 이 pre-fused 임베딩을 기반으로 fine-tuning됩니다.

시사점, 한계점

시사점:
SCT는 LLM 추론 전에 의미 그래프 컨텍스트로 입력 표현을 조절하여 더 직접적이고 강력한 신호를 제공합니다.
SCT는 prefix-tuning 및 다른 강력한 baseline보다 지식 그래프 벤치마크에서 성능을 크게 향상시켰습니다.
SCT는 보다 정확하고 견고한 지식 추론을 가능하게 합니다.
한계점:
논문에서 명시된 한계점은 제시되지 않았습니다.
👍