Cet article explore comment les modèles de langage à grande échelle (LLM), tels que ChatGPT, ont révolutionné le traitement automatique du langage naturel (TALN), mais introduisent également de nouvelles vulnérabilités de sécurité. Nous classons les menaces en plusieurs domaines clés : l’injection rapide et le jailbreaking, les attaques adverses (notamment la perturbation des entrées et l’empoisonnement des données), les utilisations malveillantes par des acteurs malveillants (notamment les fausses informations, les e-mails de phishing et la génération de logiciels malveillants), et les risques inhérents aux agents LLM autonomes (notamment l’inadéquation des objectifs, l’émergence de la tromperie, les instincts de conservation et les comportements de « planification » qui développent et poursuivent des objectifs cachés et incohérents). Nous résumons les recherches universitaires et industrielles récentes de 2022 à 2025 et présentons des exemples de chaque menace. Nous analysons également les défenses proposées et leurs limites, identifions les défis non résolus en matière de sécurisation des applications basées sur les LLM et soulignons l’importance d’une stratégie de sécurité robuste et multicouche.