यह शोधपत्र पैरास्टूडेंट अध्ययन प्रस्तुत करता है, जो इस बात की जाँच करता है कि क्या बड़े पैमाने के भाषा मॉडल (एलएलएम) वास्तविक छात्रों की तरह अपूर्ण, दोहरावदार और शैलीगत रूप से विविध कोड उत्पन्न कर सकते हैं। कई सेमेस्टर में एकत्रित छात्र प्रस्तुतियों के समय-क्रमबद्ध डेटासेट का उपयोग करते हुए, हम छात्र प्रगति को मॉडल करने और अर्थ, कार्यात्मक और शैलीगत आयामों के साथ कोड आउटपुट का मूल्यांकन करने के लिए निम्न- और उच्च-रिज़ॉल्यूशन प्रयोगों को डिज़ाइन करते हैं। हम प्रदर्शित करते हैं कि फ़ाइन-ट्यूनिंग हमें वास्तविक छात्र कोड लेखन प्रक्रियाओं, त्रुटि पैटर्न, वृद्धिशील सुधारों और शैली परिवर्तनों को अधिक सटीकता से पकड़ने की अनुमति देती है। हमारे निष्कर्ष दर्शाते हैं कि छात्र कोड के यथार्थवादी मॉडलिंग के लिए संदर्भ-जागरूक निर्माण, कालिक मॉडलिंग और बहुआयामी मूल्यांकन के माध्यम से सीखने की गतिशीलता को कैप्चर करना आवश्यक है। प्रयोगों और मूल्यांकनों के लिए कोड github.com/mmiroyan/ParaStudent पर उपलब्ध है।