Cet article explore comment l'émergence de modèles de langage à grande échelle (MLH) comme ChatGPT a révolutionné le traitement automatique du langage naturel (TALN), tout en introduisant de nouvelles vulnérabilités de sécurité. Nous classons les menaces en plusieurs domaines clés : l'injection de données et le jailbreaking, les attaques antagonistes (notamment la perturbation des entrées et l'empoisonnement des données), la guerre de l'information par des acteurs malveillants, les e-mails de phishing et la génération de logiciels malveillants, ainsi que les risques liés aux agents LLM autonomes. Nous abordons également les risques émergents liés aux agents LLM autonomes, notamment l'inadéquation des objectifs, l'émergence de la tromperie, l'instinct de conservation et la capacité des LLM à développer et à poursuivre des objectifs cachés et incohérents (appelés planification). Nous résumons les recherches universitaires et industrielles récentes de 2022 à 2025, en illustrant chaque menace, en analysant les défenses proposées et leurs limites, et en identifiant les défis non résolus en matière de sécurisation des applications basées sur les LLM. Enfin, nous soulignons l'importance de développer des stratégies de sécurité robustes et multicouches pour garantir la sécurité et l'utilité des LLM.