Este artículo explora cómo la aparición de modelos de lenguaje a gran escala (LLM) como ChatGPT ha revolucionado el campo del procesamiento del lenguaje natural (PLN), a la vez que ha introducido nuevas vulnerabilidades de seguridad. Clasificamos las amenazas en varias áreas clave: inyección inmediata y jailbreaking, ataques adversariales (incluyendo perturbación de entrada y envenenamiento de datos), guerra de información por parte de actores maliciosos, correos electrónicos de phishing y generación de malware, y los riesgos de los agentes LLM autónomos. Analizamos además los riesgos emergentes de los agentes LLM autónomos, incluyendo la discrepancia de objetivos, el engaño emergente, el instinto de supervivencia y el potencial de los LLM para desarrollar y perseguir objetivos encubiertos e inconsistentes (conocido como planificación). Resumimos investigaciones académicas y del sector recientes de 2022 a 2025, ejemplificando cada amenaza, analizando las defensas propuestas y sus limitaciones, e identificando desafíos pendientes en la seguridad de las aplicaciones basadas en LLM. Finalmente, enfatizamos la importancia de desarrollar estrategias de seguridad robustas y multicapa para garantizar que los LLM sean seguros y beneficiosos.