La diacritisation des textes arabes reste un défi persistant en traitement du langage naturel en raison de la richesse des caractéristiques morphologiques de cette langue. Dans cet article, nous présentons Sadeed, un modèle de langage basé uniquement sur un décodeur, affiné sur Kuwain 1.5B. Hennara et al. [2025], un modèle compact entraîné sur un corpus arabe diversifié. Sadeed est affiné sur un ensemble de données contenant des textes diacritisés de haute qualité, soigneusement sélectionnés, générés par des processus rigoureux de nettoyage et de normalisation des données. Malgré une utilisation réduite de ressources de calcul, Sadeed obtient des résultats compétitifs par rapport aux modèles de langage propriétaires à grande échelle et surpasse les modèles existants entraînés dans des domaines similaires. De plus, cet article met en évidence les principales lacunes des pratiques actuelles d'analyse comparative pour la diacritisation de l'arabe. Pour remédier à ces problèmes, nous présentons SadeedDiac-25, un nouveau benchmark conçu pour permettre une évaluation plus juste et plus complète de divers genres de textes et niveaux de complexité. Sadeed et SadeedDiac-25 fournissent une base solide pour faire progresser les applications NLP en arabe, notamment la traduction automatique, la synthèse vocale et les outils d'apprentissage des langues.