Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Relation as a Prior: A Novel Paradigm for LLM-based Document-level Relation Extraction

Created by
  • Haebom
Category
Empty

저자

Qiankun Pi, Yepeng Sun, Jicang Lu, Qinlong Fan, Ningbo Huang, Shiyu Wang

개요

대규모 언어 모델(LLM)은 문서 이해 능력에서 뛰어난 성능을 보이지만, 세밀한 이해가 필요한 문서 수준 관계 추출(DocRE)에서는 여전히 격차를 보인다. 기존 LLM 기반 방법론은 "개체 추출 후 관계 예측" 방식을 사용하며, 이는 두 가지 문제점을 야기한다: (1) 관련 없는 많은 개체 쌍이 노이즈를 발생시켜 실제 관련 개체 쌍의 관계 예측을 방해한다. (2) LLM이 개체 간의 의미적 연관성을 파악했음에도, 미리 정의된 관계 집합 외의 관계 레이블은 예측 오류로 간주된다. 본 연구에서는 이러한 문제를 해결하기 위해 LLM 기반 DocRE를 위한 새로운 "관계 사전 정보(RelPrior)" 패러다임을 제안한다. RelPrior는 (1)번 문제 해결을 위해 이진 관계를 사전 정보로 활용하여 두 개체가 연관되어 있는지 확인함으로써 관련 없는 개체 쌍을 필터링하고 예측 노이즈를 줄인다. (2)번 문제 해결을 위해 미리 정의된 관계를 사전 정보로 활용하여 관계를 직접 예측하는 대신 삼중항 추출을 위해 개체를 매칭한다. 이를 통해 엄격하게 정의된 관계 레이블링으로 인한 오판을 방지한다. 두 가지 벤치마크에 대한 광범위한 실험을 통해 RelPrior가 기존 LLM 기반 방법론을 능가하는 최고 성능을 달성했음을 입증했다.

시사점, 한계점

시사점:
새로운 "관계 사전 정보(RelPrior)" 패러다임 제안으로 LLM 기반 DocRE 성능 향상
노이즈 감소 및 예측 오류 방지를 통해 DocRE 정확도 향상
두 가지 벤치마크에서 기존 LLM 기반 방법론 대비 우수한 성능 달성
한계점:
구체적인 구현 방식 및 RelPrior의 세부적인 작동 메커니즘에 대한 추가 정보 부족
일반화 가능성 및 다른 도메인으로의 확장성에 대한 추가 연구 필요
사전 정의된 관계 집합의 한계는 여전히 존재할 수 있음
👍