[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

UniHM: Universal Human Motion Generation with Object Interactions in Indoor Scenes

Created by
  • Haebom

저자

Zichen Geng, Zeeshan Hayder, Wei Liu, Ajmal Mian

개요

본 논문은 복잡한 3D 장면에서의 시나리오 인식 인간 모션 합성을 위한 통합 모션 언어 모델 UniHM을 제안합니다. 기존의 텍스트 기반 모션 모델이 장면 정보를 충분히 활용하지 못하는 한계를 극복하기 위해, UniHM은 확산 기반 생성을 활용하여 텍스트 및 장면 정보를 바탕으로 사실적인 인간 모션을 생성합니다. 이는 연속적인 6DoF 모션과 이산적인 지역 모션 토큰을 결합한 혼합 모션 표현, 기존 VQ-VAE보다 성능이 향상된 LFQ-VAE, 그리고 HumanML3D 주석으로 확장된 Lingo 데이터셋을 사용함으로써 가능해졌습니다. UniHM은 Text-to-Motion과 Text-to-Human-Object Interaction (HOI) 모두를 지원하는 최초의 프레임워크입니다.

시사점, 한계점

시사점:
복잡한 3D 장면에서의 시나리오 인식 인간 모션 합성을 위한 새로운 방법 제시
Text-to-Motion 및 Text-to-HOI 작업 모두를 지원하는 통합 프레임워크 구축
혼합 모션 표현, LFQ-VAE, 확장된 Lingo 데이터셋을 통해 기존 모델의 한계 극복
OMOMO 및 HumanML3D 벤치마크에서 경쟁력 있는 성능 달성
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 평가 필요
더욱 다양하고 복잡한 장면 및 상호작용에 대한 적용성 검증 필요
LFQ-VAE의 계산 비용 및 효율성에 대한 분석 필요
👍