Bài báo này trình bày kết quả của một nghiên cứu đánh giá hiệu suất của mười mô hình ngôn ngữ quy mô lớn (LLM) mở và đóng hàng đầu trong các kỳ thi chứng chỉ CIPP/US, CIPM, CIPT và AIGP của Hiệp hội Chuyên gia Bảo mật Quốc tế (IAPP). Trong các kỳ thi đóng với các mô hình từ OpenAI, Anthropic, Google DeepMind, Meta và DeepSeek, các mô hình tiên tiến như Gemini 2.5 Pro và GPT-5 của OpenAI đã vượt qua các tiêu chuẩn của chuyên gia con người, thể hiện chuyên môn đáng kể về luật bảo mật, kiểm soát kỹ thuật và quản trị AI. Nghiên cứu này cung cấp những hiểu biết thực tế về việc đánh giá mức độ sẵn sàng của các công cụ AI cho các vai trò quản trị dữ liệu quan trọng, cung cấp tổng quan cho các chuyên gia đang điều hướng giao điểm giữa phát triển AI và rủi ro pháp lý, đồng thời thiết lập các chuẩn mực máy móc dựa trên các đánh giá lấy con người làm trung tâm.