MacRAG: Compress, Slice, and Scale-up for Multi-Scale Adaptive Context RAG
Created by
Haebom
저자
Woosang Lim, Zekun Li, Gyuwan Kim, Sungyoung Ji, HyeonJung Kim, Kyuri Choi, Jin Hyuk Lim, Kyungpyo Park, William Yang Wang
개요
본 논문은 장문맥락(LC) 대규모 언어 모델(LLM)과 검색 증강 생성(RAG)을 결합하여 복잡한 다단계 및 대용량 문서 작업에 대한 잠재력을 강화하는 Multi-scale Adaptive Context RAG (MacRAG)를 제안합니다. 기존 RAG 시스템의 부정확한 검색, 제한된 문맥 창에서의 불완전한 문맥 적용, 최적화되지 않은 문맥 구성으로 인한 정보 단편화 문제를 해결하기 위해, MacRAG는 문서를 다양한 크기로 압축 및 분할하고, 청크 및 문서 수준 확장을 통해 실시간으로 관련 문맥을 적응적으로 병합하는 계층적 검색 프레임워크를 제시합니다. 최상위 수준의 검색부터 시작하여 점진적으로 상위 수준 및 광범위한 문맥을 통합함으로써, MacRAG는 정밀도와 적용 범위를 모두 최적화하는 효과적인 쿼리 특정 장문맥을 구성합니다. HotpotQA, 2WikiMultihopQA, Musique의 LongBench 확장에 대한 평가 결과, MacRAG는 Llama-3.1-8B, Gemini-1.5-pro, GPT-4o를 사용한 단일 및 다단계 생성에서 기준 RAG 파이프라인을 일관되게 능가하는 것으로 나타났습니다. 본 연구는 MacRAG가 실제 세계 장문맥 다단계 추론을 위한 효율적이고 확장 가능한 솔루션임을 입증합니다. 코드는 https://github.com/Leezekun/MacRAG 에서 이용 가능합니다.