Este artículo explora cómo los modelos de lenguaje a gran escala (LLM), como ChatGPT, han revolucionado el campo del procesamiento del lenguaje natural (PLN), pero también introducen nuevas vulnerabilidades de seguridad. Clasificamos las amenazas en varias áreas clave: inyección inmediata y jailbreaking, ataques adversariales (incluyendo perturbación de entrada y envenenamiento de datos), uso indebido malicioso por parte de actores maliciosos (incluyendo información falsa, correos electrónicos de phishing y generación de malware), y los riesgos inherentes de los agentes LLM autónomos (incluyendo desajuste de objetivos, engaño emergente, instinto de supervivencia y comportamientos de "planificación" que desarrollan y persiguen objetivos encubiertos e inconsistentes). Resumimos investigaciones académicas y del sector recientes de 2022 a 2025 y presentamos ejemplos de cada amenaza. También analizamos las defensas propuestas y sus limitaciones, identificamos desafíos no resueltos para proteger las aplicaciones basadas en LLM y enfatizamos la importancia de una estrategia de seguridad robusta y multicapa.