본 논문은 대규모 언어 모델(LLM)의 지식 확장을 위한 새로운 프레임워크인 KeyKnowledgeRAG (K2RAG)을 제안합니다. 기존의 Retrieval-Augmented Generation (RAG) 방식의 확장성 및 정확성 한계를 극복하기 위해, K2RAG는 dense 및 sparse 벡터 검색, 지식 그래프, 텍스트 요약을 통합하여 효율성과 검색 품질을 향상시킵니다. 특히, 사전 처리 단계에서 훈련 데이터를 요약하여 훈련 시간을 크게 단축하고, MultiHopRAG 데이터셋을 사용한 실험 결과, 기존 RAG 방식보다 높은 정확도(평균 유사도 점수 0.57, 3사분위 유사도 0.82)와 효율성(훈련 시간 93% 단축, 실행 속도 최대 40% 향상, VRAM 사용량 3배 감소)을 보였습니다.