본 논문은 대규모 언어 모델(LLM)의 3D 아바타 제어를 통해 인간 동작 지식을 탐구한다. 동작 지시가 주어지면, LLM은 먼저 연속적인 단계를 포함하는 상위 수준의 움직임 계획(High-level Planning)을 생성하고, 각 단계에서 신체 부위의 위치를 지정하는 하위 수준 계획(Low-level Planning)을 생성한다. 이 계획들은 선형 보간을 통해 아바타 애니메이션으로 변환된다. 기본적인 움직임과 신체 부위 사용의 균형을 포함하는 20개의 대표적인 동작 지시를 사용하여, 상위 수준의 움직임 계획과 생성된 애니메이션에 대한 인간 및 자동 평가, 그리고 하위 수준 계획에서 오라클 위치와의 자동 비교를 포함한 종합적인 평가를 수행한다. LLM은 상위 수준의 신체 움직임 해석에는 능숙하지만, 정확한 신체 부위 위치 지정에는 어려움을 겪는다는 것을 발견했다. 동작 질의를 원자적 구성 요소로 분해하면 계획이 개선되지만, LLM은 자유도가 높은 신체 부위를 포함하는 다단계 움직임에서 어려움을 겪는다. 또한 LLM은 일반적인 공간적 설명에 대해서는 합리적인 근사치를 제공하지만, 정확한 공간적 사양 처리에는 미흡하다. 주목할 만한 점은 LLM이 창의적인 동작을 개념화하고 문화적으로 특정한 동작 패턴을 구별하는 데 가능성을 보여준다는 것이다.