Retrieval Augmented Generation (RAG) 시스템의 성능은 검색기의 질과 검색된 맥락의 크기에 크게 의존합니다. 충분히 큰 맥락은 LLM의 입력 맥락에 관련 정보가 포함되도록 보장하지만, 모델을 혼란스럽게 하는 것으로 나타난 무관한 내용도 포함합니다. 반면, 더 작은 맥락은 무관한 정보를 줄이지만, 입력 질문에 답하는 데 필요한 중요한 정보를 잃을 위험이 있습니다. 이러한 이중성은 전체 맥락에서 관련 청크를 검색할 정보가 거의 없는 복잡한 질의의 경우 관리하기가 특히 어렵습니다. 이 문제를 해결하기 위해 저자들은 새로운 프레임워크인 FB-RAG를 제시합니다. FB-RAG는 역방향 조회(쿼리와의 겹침)와 순방향 조회(후보 이유 및 답변과의 겹침)를 결합하여 입력 쿼리에 답하는 데 가장 관련성이 높은 특정 맥락 청크를 검색함으로써 RAG 파이프라인을 향상시킵니다. 두 개의 주요 벤치마크의 9개 데이터 세트에 대한 평가 결과, FB-RAG는 최근 이러한 벤치마크에 대해 개발된 RAG 및 Long Context 기준 모델을 지속적으로 능가하는 것으로 나타났습니다. 또한 FB-RAG는 지연 시간을 줄이면서 성능을 향상시킬 수 있음을 보여줍니다. 저자들은 이 방법의 강점과 단점에 대한 질적 분석을 수행하여 향후 연구를 위한 구체적인 통찰력을 제공합니다.