Bài báo này cung cấp một so sánh chi tiết giữa các biện pháp an toàn và bảo mật được đề xuất trong Bộ quy tắc ứng xử AI mục đích chung (GPAI) của Dự luật AI của EU (bản thảo thứ ba) và các cam kết và thực tiễn hiện tại được các công ty AI hàng đầu tự nguyện áp dụng. Khi EU hướng tới việc thực hiện các nghĩa vụ ràng buộc đối với các nhà cung cấp mô hình GPAI, một bộ quy tắc ứng xử đóng vai trò quan trọng để làm cầu nối giữa các yêu cầu pháp lý và các cam kết kỹ thuật cụ thể. Phân tích này tập trung vào các phần về an toàn và bảo mật của dự thảo (Cam kết II.1-II.16) và các tài liệu trích đoạn từ các tài liệu công khai hiện hành có liên quan đến từng biện pháp. Nhiều loại tài liệu, chẳng hạn như khuôn khổ an toàn hiện đại và thẻ mô hình từ hơn một chục công ty, bao gồm OpenAI, Anthropic, Google DeepMind, Microsoft, Meta và Amazon, được xem xét một cách có hệ thống. Báo cáo này không đại diện cho việc tuân thủ pháp luật, cũng không đưa ra bất kỳ quan điểm chuẩn mực nào về các quy tắc ứng xử hoặc chính sách của công ty. Thay vào đó, báo cáo nhằm mục đích tạo điều kiện cho đối thoại đang diễn ra giữa các cơ quan quản lý và các nhà cung cấp mô hình AI mục đích chung bằng cách cung cấp tiền lệ cho một loạt các biện pháp trong ngành. Tuy nhiên, đối với hầu hết các biện pháp trong Promises II.1-II.16, chúng tôi có thể tìm thấy các trích dẫn có liên quan trong tài liệu từ ít nhất năm công ty.