Enabling LLM Knowledge Analysis via Extensive Materialization
Created by
Haebom
저자
Yujia Hu, Tuan-Phong Nguyen, Shrestha Ghosh, Simon Razniewski
개요
본 논문은 대규모 언어 모델(LLM)의 내재된 사실적 지식을 포괄적으로 분석하는 새로운 방법론을 제시합니다. 기존 연구들이 제한된 샘플과 단일 질문 분석으로 인한 편향에 제한되었던 것과 달리, 본 연구는 재귀적 질의 및 결과 통합을 통해 LLM의 지식을 체계적으로 구축하는 방법을 제안합니다. 이를 통해 LLM의 지식 범위, 구조, 정확도, 편향, 한계점 및 일관성을 동시에 분석할 수 있습니다. 본 연구는 GPT-4o-mini를 기반으로 290만 개 이상의 엔티티와 1억 1백만 개의 관계형 트리플로 구성된 GPTKB라는 지식베이스를 구축하여 이 방법론을 실증적으로 보여줍니다. GPTKB는 https://gptkb.org 에서 접근 가능합니다.