본 논문은 대규모 언어 모델(LLM)이 연속적인 관측 벡터를 연속적인 행동 벡터에 직접 매핑하여 구현된 에이전트를 제어하는 방법을 제안합니다. LLM은 에이전트, 환경, 목표에 대한 텍스트 설명을 기반으로 제어 전략을 생성하고, 성능 피드백과 감각 운동 데이터를 사용하여 반복적으로 전략을 개선하는 학습 과정을 거칩니다. Gymnasium 라이브러리의 고전적인 제어 작업과 MuJoCo 라이브러리의 역진자 작업에서 이 방법의 유효성을 검증하였으며, GPT-oss:120b 및 Qwen2.5:72b와 같은 비교적 작은 모델에서도 효과적임을 보였습니다. 이 방법은 추론을 통해 얻은 상징적 지식과 에이전트가 환경과 상호 작용하면서 수집된 하위 기호 감각 운동 데이터를 통합하여 최적 또는 최적에 가까운 솔루션을 성공적으로 찾습니다.