Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

X-UniMotion: Animating Human Images with Expressive, Unified and Identity-Agnostic Motion Latents

Created by
  • Haebom

저자

Guoxian Song, Hongyi Xu, Xiaochen Zhao, You Xie, Tianpei Gu, Zenan Li, Chenxu Zhang, Linjie Luo

개요

X-UniMotion은 얼굴 표정, 몸 자세, 손동작을 포함하는 전신 인체 동작을 위한 통합적이고 표현력 있는 암묵적 잠재 표현입니다. 기존의 명시적인 골격 자세와 휴리스틱한 교차 신원 조정에 의존하는 동작 전이 방법과 달리, 본 연구는 단일 이미지에서 다양한 크기의 동작을 네 개의 분리된 잠재 토큰(얼굴 표정, 몸 자세, 각 손 하나씩)으로 직접 인코딩합니다. 이러한 동작 잠재 변수는 매우 표현력이 풍부하고 신원과 무관하여 다양한 신원, 자세 및 공간 구성을 가진 피험자 간에 고충실도의 상세한 교차 신원 동작 전이를 가능하게 합니다. 이를 달성하기 위해, 대규모 다양한 인체 동작 데이터셋으로 훈련된 DiT 기반 비디오 생성 모델과 함께 동작 인코더와 잠재 표현을 공동으로 학습하는 자기 지도 학습 기반의 종단 간 프레임워크를 제시합니다. 동작-신원 분리는 2D 공간 및 색상 증강과 공유 자세하에 교차 신원 피험자 쌍의 합성 3D 렌더링을 통해 강화됩니다. 또한, 미세 입자, 의미적으로 정렬되고 깊이 인식 동작 임베딩을 촉진하는 보조 디코더를 사용하여 동작 토큰 학습을 안내합니다. 광범위한 실험을 통해 X-UniMotion이 최첨단 방법보다 뛰어나며, 우수한 동작 충실도와 신원 보존으로 매우 표현력 있는 애니메이션을 생성한다는 것을 보여줍니다.

시사점, 한계점

시사점:
단일 이미지에서 얼굴 표정, 몸 자세, 손동작을 포함하는 전신 인체 동작을 효과적으로 표현하는 새로운 암묵적 잠재 표현 방법 제시.
고충실도의 상세한 교차 신원 동작 전이를 가능하게 함.
최첨단 방법보다 우수한 성능을 보임.
자기 지도 학습 기반 종단 간 프레임워크를 통해 효율적인 학습 가능.
한계점:
대규모 다양한 인체 동작 데이터셋에 대한 의존성.
합성 3D 렌더링을 사용한 훈련 데이터의 제한.
실제 세계 데이터에 대한 일반화 성능에 대한 추가적인 검증 필요.
잠재 토큰의 해석 가능성에 대한 추가적인 연구 필요.
👍