Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Innate Reasoning is Not Enough: In-Context Learning Enhances Reasoning Large Language Models with Less Overthinking

Created by
  • Haebom
Category
Empty

저자

Yuyao Ge, Shenghua Liu, Yiwei Wang, Lingrui Mei, Lizhe Chen, Baolong Bi, Xueqi Cheng

개요

본 논문은 추론 대규모 언어 모델(RLLM)의 추론 능력 향상을 위한 컨텍스트 학습(ICL) 방법인 CoT 프롬프팅의 필요성을 분석합니다. 1.5B~32B 파라미터의 다양한 RLLM을 대상으로 수학적 추론 과제에서 제로샷 및 퓨샷 CoT의 영향을 종합적으로 분석한 결과, CoT 프롬프팅이 대부분의 경우 RLLM의 성능을 향상시킨다는 것을 발견했습니다. 특히 대규모 모델은 복잡한 문제에서, 소규모 모델은 단순한 문제에서 CoT 프롬프팅의 효과가 더 크게 나타났습니다. CoT 프롬프팅은 사고 토큰 수와 추론 단계의 분포를 효과적으로 제어하여 과도한 반성을 줄이며, 어텐션 로짓 분석을 통해 RLLM의 반성 관련 단어 과적합 문제를 완화하는 것을 확인했습니다. 또한, RLLM에서는 퓨샷 CoT보다 원샷 CoT가 더 나은 성능을 보임을 확인했습니다.

시사점, 한계점

시사점:
CoT 프롬프팅은 RLLM의 추론 능력 향상에 효과적임을 실험적으로 증명.
모델 크기와 과제 난이도에 따라 CoT 프롬프팅의 효과가 다르게 나타남.
CoT 프롬프팅은 과도한 반성을 줄이고, 과적합 문제를 완화하는 데 도움이 됨.
RLLM에서는 원샷 CoT가 퓨샷 CoT보다 효과적임.
RLLM 성능 최적화를 위한 적절한 프롬프팅 전략에 대한 통찰력 제공.
한계점:
분석 대상이 수학적 추론 과제에 국한됨. 다른 유형의 추론 과제에 대한 일반화 가능성은 추가 연구 필요.
특정 RLLM 모델에 대한 분석 결과이므로, 다른 RLLM 아키텍처나 훈련 방식에 대한 일반화 가능성은 제한적일 수 있음.
👍