Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Aryabhata: An exam-focused language model for JEE Math

Created by
  • Haebom

저자

Ritvik Rastogi, Sachin Dharashivkar, Sandeep Varma

개요

Aryabhata 1.0은 인도의 대입 시험인 JEE를 위해 최적화된 70억 개 매개변수의 소형 수학 추론 모델입니다. 기존의 대규모 언어 모델(LLM)들이 교육용으로 부적합한 경우가 많은 반면, Aryabhata 1.0은 강력한 오픈 가중치 추론 모델들을 결합하고, 검증된 사고 과정(CoT) 추적을 사용하여 지도 학습 미세 조정(SFT)과 커리큘럼 학습을 통해 개발되었습니다. A2C 목표와 그룹 상대적 이점 추정을 사용하는 검증 가능한 보상을 사용한 강화 학습(RLVR)과 적응적 그룹 크기 조정 및 온도 조절과 같은 새로운 탐색 전략을 적용하여 성능을 더욱 향상시켰습니다. JEE Main 2025와 같은 분포 내(in-distribution) 및 MATH, GSM8K와 같은 분포 외(out-of-distribution) 벤치마크에서 기존 모델보다 정확도와 효율성이 뛰어나며, 교육적으로 유용한 단계별 추론을 제공합니다. Aryabhata 1.0은 시험 중심의 오픈소스 소형 언어 모델을 발전시키기 위한 기반 모델로 공개됩니다.

시사점, 한계점

시사점:
시험 중심의 교육 환경에 적합한 소형 LLM의 가능성을 보여줌.
강력한 추론 능력과 단계별 추론 제공을 통한 교육적 효용성 제시.
오픈소스로 공개되어 커뮤니티 기여 및 발전 가능성 확보.
A2C 목표와 그룹 상대적 이점 추정, 적응적 그룹 크기 조정 및 온도 조절과 같은 새로운 탐색 전략을 통한 성능 향상.
한계점:
JEE 시험에 특화되어 다른 유형의 수학 문제 또는 과목에 대한 일반화 성능은 제한적일 수 있음.
모델의 크기가 작기 때문에 복잡한 문제 해결 능력에 한계가 있을 수 있음.
현재는 인도의 JEE 시험에 특화되어 다른 국가 또는 교육 시스템에 대한 적용 가능성은 추가 연구가 필요함.
👍