Este artículo investiga las vulnerabilidades de seguridad de los sistemas robóticos basados en modelos de lenguaje a gran escala (LLM). Destacamos que la vulnerabilidad de los LLM a los ataques de fuga de control, que transforman comandos robóticos en políticas ejecutables, representa un grave riesgo de seguridad, tanto en el ámbito digital como en el físico. Investigamos la aplicabilidad de los ataques de fuga de control existentes en LLM a sistemas robóticos y proponemos una novedosa técnica de ataque, POlicy Executable (POEX). POEX utiliza optimización de gradiente de capa oculta y un evaluador multiagente para derivar políticas ejecutables dañinas, y su eficacia se verifica mediante sistemas robóticos y simulaciones reales. Finalmente, proponemos técnicas de defensa basadas en indicaciones y modelos para mitigar los ataques de fuga de control.