Este documento examina los riesgos de los sistemas de IA físicamente encarnada (IAE) en rápida evolución y presenta respuestas políticas. Si bien los sistemas de IA físicamente encarnada pueden existir, aprender, razonar y actuar en el mundo físico, su uso malintencionado puede suponer graves riesgos, como daños físicos, vigilancia masiva y disrupción económica y social. Dado que las regulaciones existentes para robots industriales y vehículos autónomos no abordan adecuadamente los riesgos que plantean los sistemas de IA EAI, este documento proporciona una taxonomía de los riesgos físicos, informativos, económicos y sociales que plantean los sistemas de IA EAI y analiza las políticas en EE. UU., la UE y el Reino Unido para destacar las limitaciones de los marcos existentes. Finalmente, presenta recomendaciones políticas para la implementación segura y beneficiosa de los sistemas de IA EAI, incluyendo sistemas obligatorios de prueba y certificación, un marco claro de rendición de cuentas y estrategias para gestionar los posibles impactos económicos y sociales de la IA EAI.