본 논문은 기존 Retrieval-augmented generation (RAG) 모델의 질의응답(QA) 과제 수행 시 발생하는 오류를 해결하기 위해 새로운 RAG 프레임워크인 SAGE를 제안합니다. SAGE는 기존 RAG의 두 가지 주요 한계점, 즉 (1) 의미를 고려하지 않은 단순한 코퍼스 분할로 인한 질문과 단락 간 상관관계 저하 및 (2) 검색된 맥락의 양에 따른 필수 정보 누락과 무관한 정보 포함의 상충 문제를 해결합니다. 이를 위해 SAGE는 의미 기반 코퍼스 분할 모델을 학습하고, 관련성 점수 감소 속도에 기반한 청크 선택 알고리즘을 설계하며, LLM을 이용해 검색된 청크의 양을 조절하는 메커니즘을 도입합니다. 실험 결과, SAGE는 기존 모델들에 비해 QA 품질을 평균 61.25% 향상시켰으며, 불필요한 맥락 검색 감소를 통해 토큰 소모 비용을 평균 49.41% 절감하는 효율성을 보였습니다.