Cet article présente une étude utilisant une grille d'évaluation des défauts d'écriture (FDE), qui évalue les items de test en fonction de leurs caractéristiques textuelles, afin de remplacer l'approche traditionnelle de validation d'items basée sur des tests pilotes, gourmande en ressources, pour les évaluations pédagogiques basées sur la théorie de la réponse aux items (TRI). Nous avons appliqué une grille d'évaluation automatisée FDE (19 critères) à 7 126 questions à choix multiples (STEM) et analysé leur relation avec les paramètres de la TRI (difficulté, discrimination). L'analyse a révélé des corrélations significatives entre le nombre de FDE et les paramètres de difficulté et de discrimination de la TRI, notamment en sciences de la vie et de la terre et en sciences physiques, et a révélé que des critères spécifiques de FDE (par exemple, vocabulaire négatif, réponses incorrectes irréalistes) avaient un impact variable sur la qualité des items. En conclusion, nous suggérons que l'analyse automatisée FDE peut compléter efficacement les méthodes de validation existantes, particulièrement utile pour le filtrage des questions à choix multiples de faible difficulté.