본 논문은 대규모 언어 모델(LLM)에서 구조화된 지식 활용을 위해 Wikontic을 제안한다. Wikontic은 후보 삼중항 추출, Wikidata 기반 제약 조건 적용, 개체 정규화를 통해 개방형 텍스트에서 지식 그래프(KG)를 구축하는 다단계 파이프라인이다. 생성된 KG는 작고, 온톨로지 일관성이 있으며, 잘 연결되어 있다. MuSiQue에서 정답 개체가 생성된 삼중항의 96%에 나타났다. HotpotQA에서 삼중항만 사용한 설정으로 76.0 F1을, MuSiQue에서 59.8 F1을 달성하여, 텍스트 컨텍스트가 필요한 여러 검색 증강 생성 기준선을 능가했다. MINE-1 벤치마크에서 86%의 정보 유지 성능으로 최고 수준을 달성했다. Wikontic은 AriGraph보다 3배, GraphRAG보다 20분의 1 미만의 출력 토큰을 사용하여 효율적인 빌드 시간을 제공한다.