X-UniMotion은 얼굴 표정, 몸 자세, 손동작을 포함하는 전신 인체 동작을 위한 통합적이고 표현력 있는 암묵적 잠재 표현입니다. 기존의 명시적인 골격 자세와 휴리스틱한 교차 신원 조정에 의존하는 동작 전이 방법과 달리, 본 연구는 단일 이미지에서 다양한 크기의 동작을 네 개의 분리된 잠재 토큰(얼굴 표정, 몸 자세, 각 손 하나씩)으로 직접 인코딩합니다. 이러한 동작 잠재 변수는 매우 표현력이 풍부하고 신원과 무관하여 다양한 신원, 자세 및 공간 구성을 가진 피험자 간에 고충실도의 상세한 교차 신원 동작 전이를 가능하게 합니다. 이를 달성하기 위해, 대규모 다양한 인체 동작 데이터셋으로 훈련된 DiT 기반 비디오 생성 모델과 함께 동작 인코더와 잠재 표현을 공동으로 학습하는 자기 지도 학습 기반의 종단 간 프레임워크를 제시합니다. 동작-신원 분리는 2D 공간 및 색상 증강과 공유 자세하에 교차 신원 피험자 쌍의 합성 3D 렌더링을 통해 강화됩니다. 또한, 미세 입자, 의미적으로 정렬되고 깊이 인식 동작 임베딩을 촉진하는 보조 디코더를 사용하여 동작 토큰 학습을 안내합니다. 광범위한 실험을 통해 X-UniMotion이 최첨단 방법보다 뛰어나며, 우수한 동작 충실도와 신원 보존으로 매우 표현력 있는 애니메이션을 생성한다는 것을 보여줍니다.