본 논문은 대규모 언어 모델(LLM) 기반 Text-to-SQL 시스템의 한계점, 특히 환각(hallucination) 및 오래된 지식 문제를 해결하기 위해 검색 증강 생성(RAG)을 통합하는 방식을 연구합니다. RAG는 테이블 스키마 및 메타데이터와 같은 맥락 정보를 제공하여 질의 생성 과정을 향상시키지만, 검색된 문서의 크기와 품질에 따라 성능이 크게 영향을 받습니다. 본 연구는 문서 크기와 품질 간의 절충점을 찾고, 성능 저하가 발생하는 주요 임계값을 식별하며, 이러한 문제를 완화하기 위한 전략을 제시합니다. 또한 Text2SQL 모델에서 환각 현상을 분석하고, 오류를 최소화하기 위한 문서 제시 방식의 중요성을 강조합니다.