Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Versatile Multimodal Controls for Whole-Body Talking Human Animation

Created by
  • Haebom
Category
Empty

저자

Zheng Qin, Ruobing Zheng, Yabing Wang, Tianqi Li, Zixin Zhu, Minghui Yang, Ming Yang, Le Wang

개요

본 논문은 단일 참조 이미지로부터 전신 움직임을 합성하는 다용도 인간 애니메이션 방법인 VersaAnimator를 제안합니다. 기존 방법들이 오디오 입력에 맞춰 사전 지정된 머리 또는 상반신 움직임만 생성하는 것과 달리, VersaAnimator는 오디오 신호뿐만 아니라 텍스트 프롬프트로도 유연하게 제어 가능한 전신 움직임을 생성합니다. 텍스트 제어 오디오 구동 모션 생성기를 설계하여 오디오 입력과 동기화된 3D 전신 모션 표현을 생성하고, 자연스러운 움직임을 위해 VAE 코드북과 템플릿 비디오에서 추출한 2D DWpose를 연결하는 코드-포즈 변환 모듈을 제안합니다. 또한, 오디오 입력과 전신 모션 표현에 따라 사실적인 인간 애니메이션을 생성하는 다중 모드 비디오 확산 모델을 도입합니다. 실험 결과, VersaAnimator는 기존 방법보다 시각적 품질, 정체성 보존 및 오디오-입술 동기화 측면에서 우수한 성능을 보입니다.

시사점, 한계점

시사점:
단일 이미지와 오디오, 텍스트 프롬프트만으로 사실적인 전신 인간 애니메이션 생성 가능
텍스트 기반의 모션 제어를 통해 다양한 애니메이션 생성 가능
기존 방법 대비 향상된 시각적 품질, 정체성 보존 및 오디오-입술 동기화 성능
코드-포즈 변환 모듈과 다중 모달 비디오 확산 모델의 효과적인 활용
한계점:
제안된 방법의 계산 비용 및 처리 시간에 대한 구체적인 분석 부족
다양한 환경 및 복잡한 움직임에 대한 일반화 성능에 대한 추가 연구 필요
극도로 난해한 텍스트 프롬프트에 대한 처리 성능 및 안정성에 대한 검증 필요
실제 촬영 영상과의 비교 분석 부족
👍