본 논문은 대규모 언어 모델(LLMs) 기반 지식 집약적 작업에서 검색 증강 생성(RAG)의 대안으로 떠오른 캐시 증강 생성(CAG)의 효율성 향상을 위한 연구를 제시합니다. 기존 CAG의 확장성 및 동적 지식베이스 관리의 어려움을 해결하기 위해, 본 논문은 적응적 맥락 압축(ACC) 기법을 제안하여 모델의 확장된 메모리 활용을 개선합니다. 또한, 추가 정보가 필요한 경우 선택적 검색을 통해 미리 로드된 맥락을 보강하는 하이브리드 CAG-RAG 프레임워크를 제시합니다. 다양한 데이터셋에 대한 실험 결과를 통해 ACC와 하이브리드 프레임워크의 확장성, 효율성, 다단 추론 성능 향상을 보여줍니다.