본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위해 기존의 컨텍스트 프롬프팅이나 강화 학습(RL) 방식에 의존하지 않고, 매개변수적 및 비매개변수적 메모리를 결합하는 새로운 추론 방법인 Graph Inspired Veracity Extrapolation (GIVE)을 제시합니다. GIVE는 LLM 에이전트가 관련 전문가 데이터를 선택하고(관찰), 질문 특정적인 발산적 사고를 수행하며(반추), 이 정보를 종합하여 최종 출력을 생성하도록(말하기) 안내합니다. 실험 결과, GIVE는 다양한 크기의 LLM 성능을 향상시키고, 특정 과학적 과제에서 더 작은 LLM이 더 큰 LLM을 능가하게 하며(GPT3.5T + GIVE > GPT4), 과학 및 일반 영역 평가에서 효과적임을 보였습니다. 또한, 추가 학습 없이 기존 학습 데이터를 넘어서는 새로운 문제 해결이 가능하며(최대 43.5% -> 88.2% 정확도 향상), 제한적이거나 노이즈가 많은 지식 소스를 사용할 수 있으며(135개에서 84만 개 이상의 노드를 가진 지식 그래프), 추론 과정이 완전히 해석 가능합니다.