본 논문은 대규모 언어 모델(LLM)의 질문응답(QA) 성능 향상을 위해, 외부 정보를 통합하는 Retrieval-Augmented Generation (RAG) 방식을 개선한 Clue-RAG를 제안합니다. 기존 그래프 기반 RAG 방식의 한계인 불완전한 정보 추출 및 쿼리 정보 활용 부족 문제를 해결하기 위해, Clue-RAG는 (1) 청크, 지식 단위, 엔티티를 다중 수준으로 통합하는 다중 분할 그래프 색인과, LLM 토큰 사용량을 줄이면서 정확하고 모호하지 않은 지식 단위를 생성하는 하이브리드 추출 전략을 도입하고, (2) 의미 기반 검색과 제한된 그래프 탐색을 통해 관련성을 높이는 쿼리 기반 반복 검색 전략인 Q-Iter를 제시합니다. 세 가지 QA 벤치마크 실험 결과, Clue-RAG는 최첨단 기준 모델보다 정확도 최대 99.33%, F1 점수 최대 113.51% 향상되었으며, 색인 비용은 72.58% 감소했습니다. 특히, 색인에 LLM을 사용하지 않고도 기준 모델과 동등하거나 우수한 성능을 보였습니다. 이는 Clue-RAG의 효과성과 비용 효율성을 입증합니다.