Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

AI-SearchPlanner: Modular Agentic Search via Pareto-Optimal Multi-Objective Reinforcement Learning

Created by
  • Haebom

저자

Lang Mei, Zhihan Yang, Chong Chen

개요

본 논문은 대규모 언어 모델(LLM)과 검색 엔진을 통합하여 LLM의 내부 사전 훈련 지식과 외부 정보를 활용하는 연구에 대해 다룹니다. 특히, 강화 학습(RL)을 통해 검색 엔진과의 다회차 상호작용으로 LLM 추론을 향상시키는 방법을 제안합니다. 기존 RL 기반 검색 에이전트는 검색 계획과 질문 답변(QA) 작업을 모두 처리하는 단일 LLM에 의존하여 두 가지 기능을 동시에 최적화하는 데 한계가 있습니다. 본 논문에서는 고품질 QA를 보장하기 위해 큰, 고정된 LLM을 사용하는 정교한 AI 검색 시스템의 현실적인 접근 방식을 고려하여, 검색 계획에 전념하는 작고 훈련 가능한 LLM을 활용하는 새로운 강화 학습 프레임워크인 AI-SearchPlanner를 제안합니다. AI-SearchPlanner는 검색 계획자와 생성기의 아키텍처 분리, 검색 계획을 위한 이중 보상 정렬, 계획 유틸리티와 비용의 파레토 최적화라는 세 가지 핵심 혁신을 통해 고정된 QA 모델의 성능을 향상시킵니다. 실제 데이터셋에 대한 광범위한 실험을 통해 AI-SearchPlanner가 기존 RL 기반 검색 에이전트보다 효율성과 효과성 모두에서 우수하며 다양한 고정된 QA 모델과 데이터 도메인에서 강력한 일반화 능력을 보임을 보여줍니다.

시사점, 한계점

시사점:
고정된 고성능 QA 모델을 활용하여 효율성과 효과성을 동시에 개선하는 새로운 RL 기반 검색 프레임워크(AI-SearchPlanner) 제시.
검색 계획과 질문 답변을 분리하여 각 작업에 최적화된 모델을 사용함으로써 성능 향상.
이중 보상 정렬 및 파레토 최적화를 통해 검색 계획의 질과 효율성을 균형 있게 고려.
다양한 고정된 QA 모델과 데이터 도메인에서 우수한 일반화 성능을 보임.
한계점:
제안된 방법의 성능은 사용하는 고정된 QA 모델의 질에 의존적일 수 있음.
실험 데이터셋의 범위가 제한적일 수 있으며, 다른 데이터셋에서의 일반화 성능 검증이 필요함.
AI-SearchPlanner의 복잡성이 높아지면서 계산 비용이 증가할 수 있음.
장기적인 검색 계획 및 복잡한 질문에 대한 성능 평가가 추가적으로 필요함.
👍