Este artículo explora la clasificación automática de tuits relacionados con desastres en plataformas de redes sociales como Twitter, una fuente crucial de información en tiempo real durante desastres y emergencias de seguridad pública. Si bien los modelos convencionales de aprendizaje automático, como la regresión logística, el Bayes ingenuo y las máquinas de vectores de soporte, tienen dificultades para comprender el contexto o el significado profundo del lenguaje informal, metafórico o ambiguo, planteamos la hipótesis y validamos experimentalmente que los modelos basados en Transformer (BERT, DistilBERT, RoBERTa y DeBERTa) tendrán un mejor rendimiento. Los resultados experimentales demuestran que BERT supera significativamente a los modelos convencionales (regresión logística y Bayes ingenuo, 82%) con una precisión del 91%, lo que demuestra su capacidad para comprender mejor el lenguaje matizado mediante la integración contextual y los mecanismos de atención. Por lo tanto, demostramos que la arquitectura Transformer es más adecuada para aplicaciones de seguridad pública, ofreciendo mayor precisión, una comprensión más profunda del lenguaje y una mejor generalización a textos reales en redes sociales.