Cette étude a examiné la perception des étudiants du feedback génératif par l'IA basé sur des modèles linguistiques à grande échelle (MLS) dans l'enseignement supérieur, fournissant des informations précieuses pour une mise en œuvre et une adoption efficaces. Grâce à une conception expérimentale impliquant 91 étudiants de premier cycle, nous avons comparé et analysé la confiance des étudiants dans le feedback généré par le LMS, généré par des humains et co-généré par l'humain et l'IA. Plus précisément, nous avons examiné les facteurs influençant l'identification du type de feedback, la perception de sa qualité et les biais potentiels liés à la source du feedback. Les résultats ont montré que lorsque la source du feedback était masquée, les étudiants avaient tendance à préférer le feedback généré par l'IA et co-généré au feedback humain en termes d'utilité et d'objectivité. En revanche, lorsque la source du feedback était révélée, un biais négatif plus marqué envers l'IA est apparu. Il est intéressant de noter que la baisse d'authenticité lorsque la source du feedback était révélée se limitait au feedback issu de l'IA, tandis que le feedback co-généré maintenait des perceptions positives. L'expérience avec l'IA pédagogique a amélioré la capacité des étudiants à identifier le feedback généré par le LMS et a renforcé leur confiance dans tous les types de feedback. À l'inverse, les étudiants ayant une expérience approfondie de l'utilisation de l'IA à des fins générales avaient tendance à juger le feedback moins utile et moins fiable. Ces résultats suggèrent l’importance d’améliorer la maîtrise du feedback et de l’IA pour la fiabilité des sources de feedback et l’adoption et l’impact éducatif du feedback basé sur l’IA.