Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From Next-Token to Mathematics: The Learning Dynamics of Mathematical Reasoning in Language Models

Created by
  • Haebom

저자

Shubhra Mishra, Gabriel Poesia, Noah D. Goodman

개요

본 논문은 다음 토큰 예측으로만 학습된 대규모 언어 모델(LLM)이 수학적 추론을 포함한 광범위한 문제를 해결하는 능력을 분석합니다. 특히, 여러 개방형 가중치 LLM의 수학적 추론 능력이 사전 학습 및 사후 학습 중에 어떻게 발전하는지 최초로 분석합니다. 이를 위해, K~8학년 공통 핵심 교육과정에서 가져온 44가지 세분화된 기술을 기반으로 하는 새로운 수학적 추론 문제의 합성 데이터 세트인 MathCAMPS를 구성했습니다. 사전 학습 중 수학적 기술이 학습되는 순서가, 훈련 데이터가 무작위로 정렬되었음에도 불구하고, 인간이 설계한 교육과정과 측정 가능하게 상관관계가 있음을 보여줍니다. 또한, 널리 사용되는 사후 학습 방법인 지시 조정(instruction tuning)으로부터 어떤 수학적 능력이 이점을 얻는지, 그리고 대조적으로 어떤 기술이 손해를 보는지에 대한 자세한 분석을 제시합니다. 본 연구는 추론과 관련된 LLM 훈련 역학에 대한 경험적 이해를 위한 길을 열어줍니다.

시사점, 한계점

시사점:
LLM의 수학적 추론 능력 발달 과정에 대한 최초의 경험적 분석을 제공합니다.
사전 학습 과정에서 LLM이 인간의 교육과정과 유사한 순서로 수학적 기술을 습득함을 보여줍니다.
지시 조정이 특정 수학적 능력에 미치는 영향을 상세히 분석합니다.
LLM 훈련 역학에 대한 이해를 심화시켜 향후 LLM 개발에 기여할 수 있습니다.
한계점:
MathCAMPS 데이터셋은 합성 데이터셋으로, 실제 문제 해결 능력과의 차이가 있을 수 있습니다.
분석 대상 LLM의 종류 및 규모에 따라 결과가 달라질 수 있습니다.
지시 조정 이외의 다른 사후 학습 방법에 대한 분석이 부족합니다.
👍