본 논문은 대규모 언어 모델(LLM)을 위한 정보 검색을 돕는 검색 증강 생성(RAG)의 메모리 소모 문제와 실시간 데이터 업데이트의 어려움을 해결하기 위해, 스트리밍 알고리즘과 k-means 클러스터링을 통합한 새로운 접근 방식을 제안합니다. 제안된 방법은 스트리밍 알고리즘을 이용하여 색인을 동적으로 업데이트하고 메모리 소모를 줄이며, k-means 알고리즘을 통해 유사한 문서들을 클러스터링하여 질의 시간을 단축합니다. 실험 결과, 제안된 방법은 기존 RAG보다 정확도와 메모리 효율성 측면에서, 특히 대규모 스트리밍 데이터 처리 시 우수한 성능을 보임을 확인했습니다.