SSR: Socratic Self-Refine for Large Language Model Reasoning
Created by
Haebom
Category
Empty
저자
Haizhou Shi, Ye Liu, Bo Pang, Zeyu Leo Liu, Hao Wang, Silvio Savarese, Caiming Xiong, Yingbo Zhou, Semih Yavuz
개요
본 논문은 대규모 언어 모델(LLM)의 복잡한 추론 작업을 위한 새로운 프레임워크인 Socratic Self-Refine (SSR)을 제안한다. SSR은 모델 응답을 검증 가능한 (부분 질문, 부분 답변) 쌍으로 분해하여 단계별 신뢰도 추정을 가능하게 한다. 제어된 재해결 및 자기 일관성 검사를 통해 신뢰할 수 없는 단계를 식별하고 반복적으로 개선함으로써 SSR은 보다 정확하고 해석 가능한 추론 체인을 생성한다.
시사점, 한계점
•
SSR은 기존의 자기 검증 및 자기 수정 프레임워크의 한계를 극복하여 LLM의 추론 능력을 향상시키는 새로운 접근 방식을 제시한다.
•
SSR은 모델의 내부 추론 과정을 평가하고 이해하는 원리적인 블랙 박스 접근 방식을 제공한다.
•
5개의 추론 벤치마크 및 3개의 LLM에 대한 실험 결과, SSR이 최첨단 반복적 자기 개선 기반선을 지속적으로 능가함을 입증했다.