Bài báo này xem xét những rủi ro của các hệ thống AI hiện thân vật lý (EAI) đang phát triển nhanh chóng và đưa ra các phản ứng chính sách. Mặc dù các hệ thống EAI có thể tồn tại, học hỏi, suy luận và hành động trong thế giới vật lý, việc sử dụng chúng một cách có chủ đích có thể gây ra những rủi ro nghiêm trọng, bao gồm tổn hại về thể chất, giám sát hàng loạt và gián đoạn kinh tế và xã hội. Do các quy định hiện hành về robot công nghiệp và xe tự hành không giải quyết thỏa đáng các rủi ro do hệ thống EAI gây ra, bài báo này cung cấp một phân loại về các rủi ro vật lý, thông tin, kinh tế và xã hội do hệ thống EAI gây ra và phân tích các chính sách tại Hoa Kỳ, EU và Vương quốc Anh để làm nổi bật những hạn chế của các khuôn khổ hiện có. Cuối cùng, bài báo đưa ra các khuyến nghị chính sách để triển khai các hệ thống EAI một cách an toàn và có lợi, bao gồm các hệ thống thử nghiệm và chứng nhận bắt buộc, một khuôn khổ trách nhiệm giải trình rõ ràng và các chiến lược để quản lý các tác động kinh tế và xã hội tiềm ẩn của EAI.