본 논문은 다양한 데이터 소스(웹 페이지, 데이터베이스, 지식 그래프 등)로부터 외부 증거를 통합하여 대규모 언어 모델(LLM)의 질의응답(QA) 성능을 향상시키는 검색 증강 생성(RAG) 방법인 ER-RAG를 제안합니다. 기존 RAG 방법들이 개별 데이터 소스에 특화된 전략에 의존하는 것과 달리, ER-RAG는 엔티티-관계(ER) 모델을 사용하여 이기종 데이터 소스 간의 증거 통합을 통합합니다. ER 기반 API(GET 및 JOIN 연산)를 통해 엔티티 검색과 관계 질의를 표준화하고, 최적 소스 선택(선호도 최적화 모듈)과 API 체인 구성(소스 스키마 기반)의 두 단계 생성 과정을 거칩니다. 2024 KDDCup CRAG Challenge의 세 트랙에서 모두 우승하며, 8B LLM 백본을 사용하여 상용 RAG 파이프라인과 동등한 성능을 달성하고, 하이브리드 경쟁자보다 LLM 점수에서 3.1% 향상, 검색 속도를 5.5배 향상시켰습니다.