Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CORE-RAG: Lossless Compression for Retrieval-Augmented LLMs via Reinforcement Learning

Created by
  • Haebom

저자

Ziqiang Cui, Yunpeng Weng, Xing Tang, Peiyang Liu, Shiwei Li, Bowei He, Jiamin Chen, Yansen Zhang, Xiuqiang He, Chen Ma

개요

Retrieval-Augmented Generation (RAG) 모델에서 긴 입력 길이로 인한 계산 비용 증가 문제를 해결하기 위해, CORE라는 손실 없는 컨텍스트 압축 기법을 제안한다. CORE는 사전 정의된 압축 지침 없이, downstream task 성능을 피드백 신호로 활용하여 end-to-end 방식으로 압축 정책을 최적화한다. 3%의 높은 압축률에서도 성능 저하를 막고, Exact Match (EM) 점수를 3.3점 향상시키는 효과를 보였다.

시사점, 한계점

시사점:
RAG 모델의 컨텍스트 압축을 위한 새로운 end-to-end 학습 기법 제안.
사전 정의된 압축 라벨 없이, downstream task 성능을 활용하여 압축 정책 학습.
높은 압축률에서도 성능 향상을 달성.
한계점:
코드 릴리즈 예정으로, 현재는 구현 및 활용 불가.
구체적인 데이터셋 및 실험 결과에 대한 추가 정보 필요.
다른 압축 기법과의 비교 분석 정보 부재.
👍