Cet article explore la classification automatique des tweets liés aux catastrophes sur les plateformes de médias sociaux comme Twitter, une source cruciale d'informations en temps réel lors de catastrophes et d'urgences de sécurité publique. Alors que les modèles d'apprentissage automatique conventionnels, tels que la régression logistique, la méthode Bayes naïve et les machines à vecteurs de support, peinent à comprendre le contexte ou le sens profond du langage informel, métaphorique ou ambigu, nous émettons l'hypothèse et validons expérimentalement que les modèles basés sur Transformer (BERT, DistilBERT, RoBERTa et DeBERTa) seront plus performants. Les résultats expérimentaux démontrent que BERT surpasse significativement les modèles conventionnels (régression logistique et méthode Bayes naïve, 82 %) avec une précision de 91 %, démontrant sa capacité à mieux comprendre le langage nuancé grâce à des mécanismes d'intégration contextuelle et d'attention. Par conséquent, nous démontrons que l'architecture Transformer est plus adaptée aux applications de sécurité publique, offrant une précision accrue, une compréhension plus approfondie du langage et une meilleure généralisation aux textes des médias sociaux du monde réel.