Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Enhancing Large Language Models with Reward-guided Tree Search for Knowledge Graph Question and Answering

Created by
  • Haebom

저자

Xiao Long, Liansheng Zhuang, Chen Shen, Shaotian Yan, Yifei Li, Shafei Wang

개요

본 논문은 지식 그래프 질의응답(KGQA) 과제에서 최신 대규모 언어 모델(LLM)의 성능을 개선하기 위한 새로운 프레임워크인 RTSoG(Reward-guided Tree Search on Graph)를 제안한다. 기존의 GraphRAG 방식은 최적의 추론 경로 탐색에만 집중하여 기존 경로 활용을 간과하고, 복잡한 질의 의미로 인해 부정확한 경로를 검색하는 문제가 있다. RTSoG는 복잡한 질의를 단순한 하위 질의로 분해하고, 보상 모델로 안내되는 SC-MCTS(Self-Critic Monte Carlo Tree Search)를 이용하여 가중치가 부여된 추론 경로를 반복적으로 검색한다. 마지막으로 가중치에 따라 추론 경로를 결합하여 최종 답변을 생성한다. 네 개의 데이터셋에 대한 실험 결과, RTSoG는 기존 최고 성능 모델 대비 GrailQA와 WebQSP에서 각각 8.7%, 7.0%의 성능 향상을 달성했다.

시사점, 한계점

시사점:
기존 LLM 기반 KGQA 방법의 한계점인 최적 추론 경로 탐색에 대한 편향을 해결하고, 기존 경로 활용 및 복잡한 질의 의미 처리를 개선하였다.
SC-MCTS 기반의 보상 모델을 활용하여 효율적이고 정확한 추론 경로 검색을 가능하게 하였다.
GrailQA 및 WebQSP 데이터셋에서 기존 최고 성능을 능가하는 성능 향상을 달성하여 RTSoG의 우수성을 입증하였다.
학습이 필요 없는(training-free) 프레임워크로, 새로운 데이터셋에 대한 적용이 용이하다.
한계점:
제안된 방법의 성능 향상이 특정 데이터셋에 국한될 가능성이 있다. 더욱 다양하고 대규모의 데이터셋에 대한 실험이 필요하다.
보상 모델의 설계 및 최적화에 대한 추가적인 연구가 필요하다. 보상 모델의 성능이 RTSoG의 전체 성능에 영향을 미칠 수 있다.
하위 질의 분해 과정의 자동화 및 최적화에 대한 연구가 필요하다. 현재는 어떻게 하위 질의로 분해하는지에 대한 자세한 설명이 부족하다.
👍