Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

How Much Do Large Language Models Know about Human Motion? A Case Study in 3D Avatar Control

Created by
  • Haebom

저자

Kunhang Li, Jason Naradowsky, Yansong Feng, Yusuke Miyao

개요

본 논문은 대규모 언어 모델(LLM)의 3D 아바타 제어를 통한 인간 동작 지식을 탐구한다. LLM에 동작 지시를 입력하면, LLM은 먼저 연속적인 단계를 포함하는 고차원 운동 계획(High-level Planning)을 생성하고, 각 단계에서 신체 부위의 위치를 지정하는 저차원 계획(Low-level Planning)을 생성한다. 이 계획은 선형 보간을 통해 아바타 애니메이션으로 변환되어 평가자의 검증을 용이하게 한다. 기본적인 움직임 원형과 균형 잡힌 신체 부위 사용을 포함하는 20가지의 대표적인 동작 지시를 사용하여, 생성된 애니메이션과 고차원 운동 계획에 대한 인간 평가, 저차원 계획에서 이상적인 위치와의 자동 비교를 포함한 포괄적인 평가를 수행한다.

시사점, 한계점

시사점:
LLM은 고차원 신체 움직임 해석에 강점을 보인다.
동작 질의를 원자적 구성 요소로 분해하면 계획 성능이 향상된다.
LLM은 창의적인 동작을 개념화하고 문화적으로 특정한 동작 패턴을 구별하는 데 유망성을 보인다.
일반적인 공간적 설명에 대한 합리적인 근사치를 제공한다.
한계점:
정확한 신체 부위 위치 지정에 어려움을 겪는다.
자유도가 높은 신체 부위를 포함하는 다단계 움직임에 어려움을 겪는다.
텍스트에서 정확한 공간적 사양과 아바타 제어에 필요한 정확한 공간-시간적 매개변수를 처리하지 못한다.
👍