Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Aryabhata: An exam-focused language model for JEE Math

Created by
  • Haebom

作者

Ritvik Rastogi, Sachin Dharashivkar, Sandeep Varma

概要

Aryabhata 1.0は、インドの代入テストであるJEEに最適化された70億のパラメータを持つ小型数学推論モデルです。従来の大規模言語モデル(LLM)が教育に適していないことが多いのに対し、Aryabhata 1.0は強力なオープンウェイト推論モデルを組み合わせ、実績のある思考プロセス(CoT)追跡を使用して指導学習微調整(SFT)とカリキュラム学習によって開発されました。 A2Cの目標とグループの相対的な利点の推定を使用した検証可能な補償を使用した強化学習(RLVR)と、適応的なグループのサイズ変更と温度調整などの新しいナビゲーション戦略を適用して、パフォーマンスをさらに向上させました。 JEE Main 2025などの分布内およびMATH、GSM8Kなどの分布外ベンチマークでは、従来のモデルよりも精度と効率性が高く、教育的に有用な段階的な推論を提供します。 Aryabhata 1.0は、試験中心のオープンソース小型言語モデルを発展させるための基盤モデルとして公開されています。

Takeaways、Limitations

Takeaways:
試験中心の教育環境に適した小型LLMの可能性を示す。
強力な推論能力と段階的推論を提供することによる教育的有効性の提示
オープンソースとして公開され、コミュニティの貢献と発展の可能性を確保。
A2C目標とグループの相対的な利点の推定、適応的なグループのサイジング、温度制御などの新しいナビゲーション戦略によるパフォーマンスの向上
Limitations:
JEE試験に特化しており、他の種類の数学の問題または科目の一般化のパフォーマンスは限られている可能性があります。
モデルのサイズが小さいため、複雑な問題解決能力に制限がある可能性があります。
現在、インドのJEE試験に特化され、他の国や教育システムへの適用可能性はさらなる研究が必要です。
👍