Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

RATIONALYST: Mining Implicit Rationales for Process Supervision of Reasoning

Created by
  • Haebom

저자

Dongwei Jiang, Guoxuan Wang, Yining Lu, Andrew Wang, Jingyu Zhang, Chuyu Liu, Benjamin Van Durme, Daniel Khashabi

개요

RATIONALYST는 대규모 언어 모델(LLM)이 추론 과정에서 암묵적으로 가정하는 논리적 도약을 해결하기 위해 고안된 모델입니다. 웹 규모의 비표지 데이터(Pile)와 다양한 추론 데이터셋에서 79,000개의 추론 근거를 추출하여 사전 훈련되었습니다. 이를 통해 수학, 상식, 과학, 논리 추론 등 다양한 추론 작업에서 일반화 성능을 향상시켰으며, LLaMa-3-8B를 기반으로 미세 조정하여 7개의 대표적인 추론 벤치마크에서 평균 3.9%의 정확도 향상을 달성했습니다. GPT-4와 같은 대규모 검증 모델 및 유사한 크기의 모델보다 우수한 성능을 보였습니다.

시사점, 한계점

시사점:
웹 규모의 비표지 데이터를 활용한 추론 근거 사전 훈련의 효과성을 입증.
다양한 추론 작업에 대한 일반화 성능 향상.
기존 대규모 모델보다 우수한 성능 달성.
한계점:
사전 훈련 데이터의 품질 및 편향에 대한 검토 필요.
특정 유형의 추론 작업에 대한 일반화 성능 저하 가능성.
모델의 추론 과정의 투명성 및 해석 가능성에 대한 추가 연구 필요.
👍