Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Any2Caption:Interpreting Any Condition to Caption for Controllable Video Generation

Created by
  • Haebom

저자

Shengqiong Wu, Weicai Ye, Jiahao Wang, Quande Liu, Xintao Wang, Pengfei Wan, Di Zhang, Kun Gai, Shuicheng Yan, Hao Fei, Tat-Seng Chua

개요

Any2Caption은 다양한 조건(텍스트, 이미지, 비디오, 영역, 움직임, 카메라 포즈 등) 하에서 제어 가능한 비디오 생성을 위한 새로운 프레임워크입니다. 기존 비디오 생성에서 정확한 사용자 의도 해석의 병목 현상을 해결하기 위해, 조건 해석 단계와 비디오 합성 단계를 분리하는 것을 핵심 아이디어로 합니다. 최신 다중 모달 대규모 언어 모델(MLLM)을 활용하여 다양한 입력을 밀집하고 구조화된 캡션으로 해석하여, 기본 비디오 생성기에 더 나은 가이드를 제공합니다. 또한, 다양한 조건에 대한 캡션 생성 지시 학습을 위한 대규모 데이터셋 Any2CapIns (337K 인스턴스, 407K 조건)을 소개합니다. 포괄적인 평가는 다양한 측면에서 기존 비디오 생성 모델의 제어 가능성과 비디오 품질을 크게 향상시켰음을 보여줍니다.

시사점, 한계점

시사점:
다양한 조건 하에서의 제어 가능한 비디오 생성을 위한 새로운 프레임워크 제시
MLLM을 활용하여 사용자 의도를 더욱 정확하게 해석
대규모 데이터셋 Any2CapIns를 통해 모델 성능 향상
기존 비디오 생성 모델의 제어 가능성 및 비디오 품질 향상
한계점:
Any2CapIns 데이터셋의 크기 및 다양성에 대한 추가적인 분석 필요
MLLM의 성능에 대한 의존도가 높을 수 있음
특정 조건에 대한 해석의 정확도 한계 존재 가능성
실제 응용 분야에서의 일반화 성능에 대한 추가적인 검증 필요
👍