Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Search and Refine During Think: Autonomous Retrieval-Augmented Reasoning of LLMs

Created by
  • Haebom

저자

Yaorui Shi, Sihang Li, Chang Wu, Zhiyuan Liu, Junfeng Fang, Hengxing Cai, An Zhang, Xiang Wang

개요

본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 강화 학습 기반 사후 훈련 프레임워크인 AutoRefine을 제안합니다. 기존의 검색 증강 추론 방법들이 부적절하거나 잡음이 많은 정보를 검색하는 문제점을 해결하기 위해, AutoRefine은 "검색-정제-사고"라는 새로운 패러다임을 도입합니다. 이를 통해 모델은 연속적인 검색 호출 사이에 명시적인 지식 정제 단계를 거쳐 증거를 반복적으로 필터링, 추출 및 구성한 후 답을 생성합니다. 또한, 그룹 상대 정책 최적화를 사용하여 답변 정확도 보상과 함께 맞춤형 검색 특정 보상을 통합합니다. 단일 홉 및 다중 홉 질의응답 벤치마크에 대한 실험 결과, AutoRefine은 특히 복잡한 다중 홉 추론 시나리오에서 기존 방법보다 성능이 훨씬 뛰어남을 보여줍니다. 자세한 분석을 통해 AutoRefine이 빈번하고 고품질의 검색을 수행하며 증거를 효과적으로 종합한다는 것을 보여줍니다.

시사점, 한계점

시사점:
대규모 언어 모델의 추론 능력 향상에 새로운 패러다임을 제시합니다.
"검색-정제-사고" 방식을 통해 기존 방법의 한계를 극복합니다.
다중 홉 추론 성능을 크게 향상시킵니다.
그룹 상대 정책 최적화를 활용한 효과적인 보상 설계를 제시합니다.
고품질 검색 및 증거 종합을 통해 추론 과정의 투명성을 높입니다.
한계점:
AutoRefine의 성능 향상이 특정 벤치마크에 국한될 가능성이 있습니다.
계산 비용이 높을 수 있습니다.
다양한 유형의 질문과 데이터셋에 대한 일반화 성능 평가가 추가적으로 필요합니다.
정제 과정의 상세한 메커니즘 및 최적화 전략에 대한 추가적인 설명이 필요할 수 있습니다.
👍