Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Search and Refine During Think: Autonomous Retrieval-Augmented Reasoning of LLMs

Created by
  • Haebom

저자

Yaorui Shi, Sihang Li, Chang Wu, Zhiyuan Liu, Junfeng Fang, Hengxing Cai, An Zhang, Xiang Wang

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 강화 학습 기반 후속 학습 프레임워크인 AutoRefine을 제안합니다. 기존의 검색 증강 추론 방법들이 부정확하거나 무관한 정보를 가져오는 문제점을 해결하기 위해, AutoRefine은 "search-and-refine-during-think" 패러다임을 도입하여 검색과 정제 과정을 반복적으로 수행합니다. 이는 모델이 답변 생성 전에 증거를 걸러내고, 추출하고, 구성할 수 있도록 합니다. 또한, 답변 정확도 보상과 함께 검색 특화 보상을 그룹 상대 정책 최적화(group relative policy optimization)를 사용하여 통합합니다. 단일 홉 및 다중 홉 질의응답 벤치마크 실험 결과, AutoRefine은 특히 복잡한 다중 홉 추론 시나리오에서 기존 방법들을 능가하는 성능을 보였으며, 자주적이고 질 높은 검색과 효과적인 증거 종합을 통해 성능 향상을 달성했습니다.

시사점, 한계점

시사점:
LLM의 추론 능력 향상을 위한 새로운 강화 학습 기반 후속 학습 프레임워크 AutoRefine 제시.
"search-and-refine-during-think" 패러다임을 통해 검색 증강 추론의 효율성 및 정확성 개선.
다중 홉 추론 과제에서 기존 방법 대비 우수한 성능 달성.
검색 특화 보상과 답변 정확도 보상의 통합을 통한 성능 향상.
한계점:
AutoRefine의 성능 향상이 특정 벤치마크에 국한될 가능성.
다양한 유형의 질문 및 데이터셋에 대한 일반화 성능 평가 필요.
계산 비용 및 학습 시간에 대한 추가적인 분석 필요.
검색 특화 보상 설계의 최적화 및 일반화에 대한 추가 연구 필요.
👍