Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

StyleMotif: Multi-Modal Motion Stylization using Style-Content Cross Fusion

Created by
  • Haebom
Category
Empty

저자

Ziyu Guo, Young Yoon Lee, Joseph Liu, Yizhak Ben-Shabat, Victor Zordan, Mubbasir Kapadia

개요

StyleMotif은 다양한 모달리티(모션, 텍스트, 이미지, 비디오, 오디오)의 콘텐츠와 스타일을 모두 조건으로 하여 모션을 생성하는 새로운 스타일화된 모션 잠재 확산 모델입니다. 기존의 다양한 모션 콘텐츠 생성이나 시퀀스에서 스타일 전이에 초점을 맞춘 접근 방식과 달리, StyleMotif는 다양한 콘텐츠에 걸쳐 모션을 매끄럽게 합성하는 동시에 다중 모달 입력으로부터 스타일 큐를 통합합니다. 이를 위해 스타일-콘텐츠 교차 융합 메커니즘을 도입하고 사전 훈련된 다중 모달 모델과 스타일 인코더를 정렬하여 생성된 모션이 현실감을 유지하면서 참조 스타일에 정확하게 포착되도록 합니다. 광범위한 실험을 통해 제시된 프레임워크가 스타일화된 모션 생성에서 기존 방법을 능가하며 다중 모달 모션 스타일화에 대한 새로운 기능을 보여주어 더욱 미묘한 모션 합성을 가능하게 함을 보여줍니다. 소스 코드와 사전 훈련된 모델은 수락 후 공개될 예정입니다.

시사점, 한계점

시사점:
다양한 모달리티(모션, 텍스트, 이미지, 비디오, 오디오)를 사용하여 스타일화된 모션 생성 가능
기존 방법보다 향상된 스타일화된 모션 생성 성능
다중 모달 모션 스타일화를 위한 새로운 기능 제시
현실감 있는 스타일화된 모션 생성
한계점:
소스 코드와 사전 훈련된 모델은 논문 수락 후에 공개됨
실험 결과의 세부적인 내용이 부족 (추가적인 실험 결과 및 분석이 필요할 수 있음)
👍