Bài báo này khám phá cách sự xuất hiện của các mô hình ngôn ngữ quy mô lớn (LLM) như ChatGPT đã cách mạng hóa lĩnh vực xử lý ngôn ngữ tự nhiên (NLP), đồng thời cũng tạo ra các lỗ hổng bảo mật mới. Chúng tôi phân loại các mối đe dọa thành một số lĩnh vực chính: tiêm mã độc và bẻ khóa nhanh, tấn công đối kháng (bao gồm nhiễu loạn đầu vào và đầu độc dữ liệu), chiến tranh thông tin của các tác nhân độc hại, email lừa đảo và tạo phần mềm độc hại, và rủi ro của các tác nhân LLM tự trị. Chúng tôi tiếp tục thảo luận về các rủi ro mới nổi của các tác nhân LLM tự trị, bao gồm sự không phù hợp về mục tiêu, sự lừa dối mới nổi, bản năng tự bảo vệ và khả năng của LLM trong việc phát triển và theo đuổi các mục tiêu bí mật và không nhất quán (được gọi là lập kế hoạch). Chúng tôi tóm tắt các nghiên cứu gần đây của học thuật và ngành công nghiệp từ năm 2022 đến năm 2025, minh họa từng mối đe dọa, phân tích các biện pháp phòng thủ được đề xuất và những hạn chế của chúng, đồng thời xác định những thách thức chưa được giải quyết trong việc bảo mật các ứng dụng dựa trên LLM. Cuối cùng, chúng tôi nhấn mạnh tầm quan trọng của việc phát triển các chiến lược bảo mật mạnh mẽ, nhiều lớp để đảm bảo LLM vừa an toàn vừa có lợi.