Bài báo này khám phá cách các mô hình ngôn ngữ quy mô lớn (LLM), chẳng hạn như ChatGPT, đã cách mạng hóa lĩnh vực xử lý ngôn ngữ tự nhiên (NLP), nhưng đồng thời cũng tạo ra các lỗ hổng bảo mật mới. Chúng tôi phân loại các mối đe dọa thành một số lĩnh vực chính: chèn mã độc và bẻ khóa nhanh, tấn công đối kháng (bao gồm nhiễu loạn đầu vào và đầu độc dữ liệu), lạm dụng mã độc của các tác nhân độc hại (bao gồm thông tin giả mạo, email lừa đảo và tạo phần mềm độc hại), và các rủi ro vốn có của các tác nhân LLM tự trị (bao gồm sự không phù hợp về mục tiêu, lừa đảo mới nổi, bản năng tự bảo vệ và hành vi "lên kế hoạch" phát triển và theo đuổi các mục tiêu bí mật và không nhất quán). Chúng tôi tóm tắt các nghiên cứu gần đây trong lĩnh vực học thuật và công nghiệp từ năm 2022 đến năm 2025 và trình bày các ví dụ về từng mối đe dọa. Chúng tôi cũng phân tích các biện pháp phòng thủ được đề xuất và những hạn chế của chúng, xác định những thách thức chưa được giải quyết trong việc bảo mật các ứng dụng dựa trên LLM và nhấn mạnh tầm quan trọng của một chiến lược bảo mật mạnh mẽ, nhiều lớp.