Este artículo propone un método para controlar un agente, implementado mediante un modelo de lenguaje a gran escala (LLM) que mapea directamente vectores de observación continua a vectores de acción continua. El LLM genera una estrategia de control basada en descripciones textuales del agente, el entorno y el objetivo, y la refina iterativamente utilizando retroalimentación de rendimiento y datos sensoriomotores. La eficacia de este método se valida en tareas de control clásicas de la biblioteca Gymnasium y en la tarea de péndulo invertido de la biblioteca MuJoCo, y se demuestra incluso en modelos relativamente pequeños como GPT-oss:120b y Qwen2.5:72b. Este método encuentra con éxito soluciones óptimas o casi óptimas mediante la integración del conocimiento simbólico obtenido por inferencia con datos sensoriomotores subsimbólicos recopilados a medida que el agente interactúa con el entorno.