Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SSR: Socratic Self-Refine for Large Language Model Reasoning

Created by
  • Haebom
Category
Empty

저자

Haizhou Shi, Ye Liu, Bo Pang, Zeyu Leo Liu, Hao Wang, Silvio Savarese, Caiming Xiong, Yingbo Zhou, Semih Yavuz

개요

본 논문은 대규모 언어 모델(LLM)의 복잡한 추론 작업을 위한 새로운 프레임워크인 Socratic Self-Refine (SSR)을 제안한다. SSR은 모델 응답을 검증 가능한 (부분 질문, 부분 답변) 쌍으로 분해하여 단계별 신뢰도 추정을 가능하게 한다. 제어된 재해결 및 자기 일관성 검사를 통해 신뢰할 수 없는 단계를 식별하고 반복적으로 개선함으로써 SSR은 보다 정확하고 해석 가능한 추론 체인을 생성한다.

시사점, 한계점

SSR은 기존의 자기 검증 및 자기 수정 프레임워크의 한계를 극복하여 LLM의 추론 능력을 향상시키는 새로운 접근 방식을 제시한다.
SSR은 모델의 내부 추론 과정을 평가하고 이해하는 원리적인 블랙 박스 접근 방식을 제공한다.
5개의 추론 벤치마크 및 3개의 LLM에 대한 실험 결과, SSR이 최첨단 반복적 자기 개선 기반선을 지속적으로 능가함을 입증했다.
(한계점은 논문에 명시되지 않음)
👍