Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Leveraging LLM-Assisted Query Understanding for Live Retrieval-Augmented Generation

Created by
  • Haebom

저자

Guanting Dong, Xiaoxi Li, Yuyao Zhang, Mengjie Deng

개요

본 논문은 실제 환경의 라이브 retrieval-augmented generation (RAG) 시스템이 잡음이 많고 모호하며 여러 의도를 포함하는 사용자 질의를 처리할 때 직면하는 어려움을 다룹니다. RAG는 외부 지식을 통해 대규모 언어 모델(LLM)을 향상시키지만, 기존 시스템은 대개 더 깨끗한 데이터로 훈련되거나 평가되기 때문에 이러한 복잡한 입력에 어려움을 겪습니다. 이 논문에서는 실제 환경의 오픈 도메인 설정에서 RAG 시스템의 강력성과 효율성을 향상시키도록 설계된 새로운 프레임워크인 Omni-RAG를 소개합니다. Omni-RAG는 세 가지 주요 모듈을 통해 LLM 지원 질의 이해를 활용하여 사용자 입력을 전처리합니다: (1) 심층 질의 이해 및 분해, (2) 의도 인식 지식 검색, (3) 재순위 지정 및 생성. Omni-RAG는 잡음이 많고 복잡한 질의를 강력하게 처리함으로써 현재 RAG 기능과 SIGIR 2025 LiveRAG Challenge에서 강조된 실제 응용 프로그램의 요구 사항 간의 격차를 해소하고자 합니다.

시사점, 한계점

시사점:
실제 환경의 복잡하고 잡음이 많은 질의에 대한 RAG 시스템의 강력성과 효율성 향상.
LLM 기반 질의 이해 및 분해를 통한 전처리 과정의 효과성 제시.
다양한 모듈 (심층 질의 이해 및 분해, 의도 인식 지식 검색, 재순위 지정 및 생성)의 통합적 접근 방식 제시.
SIGIR 2025 LiveRAG Challenge와 같은 실제 응용 프로그램에 대한 적용 가능성 제시.
한계점:
Omni-RAG의 성능 평가에 대한 구체적인 결과 및 분석이 부족.
사용된 LLM, 검색 엔진, 재순위 지정 모델 등의 구체적인 성능 및 한계에 대한 논의 부족.
특정 도메인이나 언어에 대한 편향성 여부에 대한 분석 부재.
확장성 및 실시간 처리 성능에 대한 평가 부족.
👍