Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Advancing Mathematical Reasoning in Language Models: The Impact of Problem-Solving Data, Data Synthesis Methods, and Training Stages

Created by
  • Haebom
Category
Empty

저자

Zui Chen, Tianqiao Liu, Mi Tian, Qing Tong, Weiqi Luo, Zitao Liu

개요

본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력 향상을 위한 효과적인 사전 학습 전략을 연구합니다. 기존의 수학 관련 LLM들은 일반적인 수학 코퍼스와 문제 풀이 데이터셋을 사용하는 2단계 학습 방식(사전 학습 및 지도 학습 미세 조정)을 따르지만, 사전 학습의 효과가 미세 조정에 비해 상대적으로 낮다는 점에 착안하여, 사전 학습 단계에서 문제 풀이 데이터의 활용 가능성을 중점적으로 연구합니다. 세 가지 연구 질문 (1) 문제 풀이 데이터가 일반 수학 코퍼스보다 사전 학습에 더 효과적인가? (2) 동일한 출처의 합성 데이터는 얼마나 효과적이며, 어떤 합성 방법이 가장 효율적인가? (3) 동일한 문제 풀이 데이터를 사용한 사전 학습과 미세 조정 단계에서의 성능 차이는 무엇이며, 그 원인은 무엇인가? 에 대한 답을 찾기 위해 실험을 진행하고, 문제 풀이 데이터 기반 사전 학습이 모델의 수학적 추론 능력을 향상시키며, 특히 'tutorship amplification' 합성 방법이 효과적임을 밝힙니다. 또한, 미세 조정은 지시 사항 따르는 능력은 향상시키지만, 어려운 문제 풀이 데이터에 대한 학습 능력이 낮아 사전 학습보다 성능이 떨어지는 현상을 발견하고, 이를 바탕으로 강력한 수학 기반 모델 MathGPT-8B를 개발했습니다.

시사점, 한계점

시사점:
문제 풀이 데이터를 활용한 사전 학습이 LLM의 수학적 추론 능력 향상에 효과적임을 증명.
'tutorship amplification' 합성 방법이 문제 풀이 데이터 합성에 효율적임을 제시.
사전 학습과 미세 조정 단계의 성능 차이와 그 원인을 분석하여 LLM 학습 전략 개선에 대한 통찰력 제공.
MathGPT-8B 와 같이 강력한 수학 기반 모델 개발에 기여.
한계점:
연구에서 사용된 문제 풀이 데이터의 특성 및 범위가 제한적일 수 있음. 다양한 유형의 문제 및 데이터셋에 대한 추가 연구 필요.
'tutorship amplification' 합성 방법의 일반화 가능성 및 다른 문제 영역에 대한 적용성에 대한 추가 연구 필요.
사전 학습과 미세 조정의 성능 차이에 대한 더욱 심층적인 분석 및 원인 규명 필요.
👍