Este estudio evaluó los enfoques de procesamiento del lenguaje natural para la detección automatizada del trastorno de estrés postraumático (TEPT) infradiagnosticado en entornos clínicos. Utilizando el conjunto de datos DAIC-WOZ, comparamos los modelos Transformer generales y específicos para la salud mental (BERT/RoBERTa), los métodos basados en la incrustación (SentenceBERT/LLaMA) y las estrategias de incitación de modelos lingüísticos a gran escala (zero-shot/few-shot/thoughtchaining). El modelo integral específico para la salud mental superó significativamente al modelo general (Mental-RoBERTa AUPRC=0,675±0,084 vs. RoBERTa-base 0,599±0,145), donde la incrustación de SentenceBERT mediante redes neuronales logró el mayor rendimiento general (AUPRC=0,758±0,128). La incitación de pocas tomas utilizando los criterios del DSM-5 también mostró resultados competitivos (AUPRC=0,737) con solo dos ejemplos. El rendimiento varió significativamente según la gravedad de los síntomas y el estado de comorbilidad depresiva, con mayor precisión en pacientes con TEPT grave y aquellos con comorbilidad depresiva. Estos resultados resaltan el potencial de la integración adaptativa por dominio y la LLM para el cribado escalable, pero también resaltan la necesidad de mejorar la detección de manifestaciones sutiles de síntomas y el desarrollo de herramientas de IA clínicamente prácticas para la evaluación del TEPT.