Cet article présente l'étude ParaStudent, qui examine si les modèles de langage à grande échelle (MLH) peuvent générer du code incomplet, répétitif et stylistiquement diversifié, comme le font de vrais étudiants. À l'aide d'un ensemble de données chronologiques issues de soumissions d'étudiants collectées sur plusieurs semestres, nous concevons des expériences à basse et haute résolution pour modéliser les progrès des étudiants et évaluer le code produit selon des dimensions sémantiques, fonctionnelles et stylistiques. Nous démontrons qu'un réglage fin nous permet de capturer plus précisément les processus d'écriture de code, les schémas d'erreur, les améliorations progressives et les changements de style des étudiants réels. Nos conclusions démontrent qu'une modélisation réaliste du code étudiant nécessite une génération sensible au contexte, une modélisation temporelle et la capture de la dynamique d'apprentissage par une évaluation multidimensionnelle. Les codes expérimentaux et d'évaluation sont disponibles à l'adresse github.com/mmiroyan/ParaStudent.