대규모 언어 모델(LLM)은 문서 이해 능력에서 뛰어난 성능을 보이지만, 세밀한 이해가 필요한 문서 수준 관계 추출(DocRE)에서는 여전히 격차를 보인다. 기존 LLM 기반 방법론은 "개체 추출 후 관계 예측" 방식을 사용하며, 이는 두 가지 문제점을 야기한다: (1) 관련 없는 많은 개체 쌍이 노이즈를 발생시켜 실제 관련 개체 쌍의 관계 예측을 방해한다. (2) LLM이 개체 간의 의미적 연관성을 파악했음에도, 미리 정의된 관계 집합 외의 관계 레이블은 예측 오류로 간주된다. 본 연구에서는 이러한 문제를 해결하기 위해 LLM 기반 DocRE를 위한 새로운 "관계 사전 정보(RelPrior)" 패러다임을 제안한다. RelPrior는 (1)번 문제 해결을 위해 이진 관계를 사전 정보로 활용하여 두 개체가 연관되어 있는지 확인함으로써 관련 없는 개체 쌍을 필터링하고 예측 노이즈를 줄인다. (2)번 문제 해결을 위해 미리 정의된 관계를 사전 정보로 활용하여 관계를 직접 예측하는 대신 삼중항 추출을 위해 개체를 매칭한다. 이를 통해 엄격하게 정의된 관계 레이블링으로 인한 오판을 방지한다. 두 가지 벤치마크에 대한 광범위한 실험을 통해 RelPrior가 기존 LLM 기반 방법론을 능가하는 최고 성능을 달성했음을 입증했다.