Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Search and Refine During Think: Autonomous Retrieval-Augmented Reasoning of LLMs

Created by
  • Haebom

저자

Yaorui Shi, Shihan Li, Chang Wu, Zhiyuan Liu, Junfeng Fang, Hengxing Cai, An Zhang, Xiang Wang

개요

본 논문에서는 대규모 언어 모델(LLM)의 추론 능력 향상을 위해, 외부 자원을 질의하는 검색 증강 추론 방식의 한계를 극복하는 새로운 강화 학습 기반 후속 학습 프레임워크인 AutoRefine을 제안합니다. AutoRefine은 '검색-정제-사고' 패러다임을 채택하여, 연속적인 검색 호출 사이에 명시적인 지식 정제 단계를 도입함으로써 모델이 답변 생성 전에 증거를 반복적으로 필터링, 추출 및 구성할 수 있도록 합니다. 또한, 그룹 상대 정책 최적화를 사용하여 답변 정확도 보상과 함께 맞춤형 검색 관련 보상을 통합합니다. 단일 홉 및 다중 홉 질의응답 벤치마크 실험 결과, AutoRefine은 특히 복잡한 다중 홉 추론 시나리오에서 기존 방법보다 성능이 크게 향상됨을 보여줍니다. 자세한 분석을 통해 AutoRefine이 빈번하고 높은 품질의 검색을 수행하고 증거를 효과적으로 종합한다는 것을 보여줍니다.

시사점, 한계점

시사점:
검색 증강 추론의 효율성을 높이는 새로운 '검색-정제-사고' 패러다임 제시
강화학습 기반 후속 학습을 통해 LLM의 추론 능력 향상
다중 홉 추론 문제에서 기존 방법 대비 성능 향상
정제 단계를 통한 질 높은 증거 수집 및 종합 능력 향상
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 연구 필요
특정 벤치마크에 대한 성능 평가 결과이므로 다른 도메인이나 작업에 대한 일반화 가능성 검증 필요
그룹 상대 정책 최적화를 사용했지만, 다른 강화 학습 방법과의 비교 분석 필요
계산 비용 및 자원 소모에 대한 분석 필요
👍