Cet article souligne l'importance de développer des items de haute qualité dans les évaluations pédagogiques basées sur la théorie de la réponse aux items (IRT) et propose une méthode efficace de validation des items utilisant l'analyse des défauts d'écriture (IWF), remplaçant la méthode traditionnelle de pré-test, gourmande en ressources. Nous avons effectué une analyse IWF automatisée sur 7 126 items STEM à choix multiples selon 19 critères et analysé leurs corrélations avec les indices de difficulté et de discrimination IRT. Les résultats ont révélé des corrélations significatives entre le nombre d'IWF et les indices de difficulté et de discrimination IRT, notamment en sciences de la vie et de la terre et en sciences physiques. De plus, nous avons constaté que des critères IWF spécifiques (par exemple, l'utilisation d'un vocabulaire négatif par rapport à des options de réponses incorrectes irréalistes) avaient des effets variables sur la qualité et la difficulté des items. Ces résultats suggèrent que l'analyse IWF automatisée peut compléter les méthodes de validation existantes comme méthode efficace de présélection des items, notamment pour la sélection des items de faible difficulté. Cependant, nous soulignons également les limites des critères et algorithmes d'évaluation spécifiques à chaque domaine, ainsi que la nécessité de recherches complémentaires prenant en compte les caractéristiques spécifiques à chaque domaine.