Cet article examine les risques liés à l'évolution rapide des systèmes d'IA physiquement incarnée (IAI) et présente des réponses politiques. Si les systèmes d'IAI peuvent exister, apprendre, raisonner et agir dans le monde physique, leur utilisation malveillante peut présenter de graves risques, notamment des dommages physiques, une surveillance de masse et des perturbations économiques et sociales. La réglementation actuelle relative aux robots industriels et aux véhicules autonomes ne parvenant pas à répondre adéquatement aux risques posés par les systèmes d'IAI, cet article propose une taxonomie des risques physiques, informationnels, économiques et sociaux posés par ces systèmes et analyse les politiques en vigueur aux États-Unis, dans l'UE et au Royaume-Uni afin de mettre en évidence les limites des cadres existants. Enfin, il présente des recommandations politiques pour un déploiement sûr et bénéfique des systèmes d'IAI, notamment des systèmes de tests et de certification obligatoires, un cadre de responsabilisation clair et des stratégies de gestion des impacts économiques et sociaux potentiels de l'IAI.