Aryabhata 1.0 est un petit modèle d'inférence mathématique de 7 milliards de paramètres, optimisé pour l'examen d'entrée indien, le JEE. Alors que les modèles linguistiques à grande échelle (LLM) existants sont souvent inadaptés à la formation, Aryabhata 1.0 combine de puissants modèles d'inférence pondérés ouverts et a été développé grâce à l'apprentissage supervisé (SFT) et à l'apprentissage curriculaire utilisant un suivi éprouvé des cours de pensée (CoT). Il améliore encore les performances grâce à l'application de stratégies d'exploration innovantes, telles que l'apprentissage par renforcement avec récompenses vérifiables (RLVR) utilisant l'objectif A2C et l'estimation de l'avantage relatif du groupe, ainsi que le dimensionnement adaptatif des groupes et le contrôle de la température. Il surpasse les modèles existants en termes de précision et d'efficacité sur les benchmarks internes tels que JEE Main 2025 et les benchmarks externes tels que MATH et GSM8K, et fournit une inférence étape par étape utile à l'enseignement. Aryabhata 1.0 est publié comme modèle fondamental pour le développement de petits modèles linguistiques open source, axés sur les tests.