Este artículo presenta el estudio ParaStudent, que investiga si los modelos de lenguaje a gran escala (LLM) pueden generar código incompleto, repetitivo y estilísticamente diverso, similar al de estudiantes reales. Utilizando un conjunto de datos secuenciados en el tiempo de entregas estudiantiles, recopilados durante varios semestres, diseñamos experimentos de baja y alta resolución para modelar el progreso estudiantil y evaluar el código generado en sus dimensiones semántica, funcional y estilística. Demostramos que el ajuste fino nos permite capturar con mayor precisión los procesos de escritura de código de estudiantes reales, los patrones de error, las mejoras incrementales y los cambios de estilo. Nuestras conclusiones demuestran que el modelado realista del código estudiantil requiere generación sensible al contexto, modelado temporal y la captura de la dinámica de aprendizaje mediante la evaluación multidimensional. El código para los experimentos y las evaluaciones está disponible en github.com/mmiroyan/ParaStudent.