본 논문은 대규모 언어 모델(LLM)의 환각 문제를 해결하기 위해 Pseudo-Graph Generation (PG)과 Atomic Knowledge Verification (AKV)을 결합한 새로운 프레임워크인 PG&AKV를 제안합니다. 기존의 자기 향상 기법이나 지식 그래프(KG) 향상 기법의 한계를 극복하기 위해, PG는 관련 지식 프레임워크를 제공하고, AKV는 원자 수준의 지식 질의 및 검증을 통해 다양한 KG 소스에 대한 일반화를 달성합니다. 실험 결과, 개방형 질문에 대해 ROUGE-L 점수가 최소 11.5 향상되었고, 정확한 답변 질문에 대해서는 정확도가 최소 7.5% 향상되었습니다. 또한, 질문 소스와 다른 KG를 사용하더라도 최소 3.5%의 성능 향상을 보였습니다. 이는 PG&AKV가 다양한 KG 소스를 활용하여 특히 개방형 질문에서 LLM 성능 향상에 기여함을 보여줍니다.