본 논문에서는 비디오 기반 신경망 얼굴 재연(Video-driven neural face reenactment)을 위한 새로운 방법인 DiffusionAct를 제시합니다. 기존 GAN 기반 방법들의 왜곡 및 시각적 인공물, 낮은 재구성 품질(머리 스타일/색상, 안경, 액세서리 등의 세부 정보 손실) 문제를 해결하기 위해, Diffusion Probabilistic Models (DPMs)의 사실적인 이미지 생성 능력을 활용합니다. Diffusion Autoencoder (DiffAE)의 의미 공간을 제어하여 입력 이미지의 얼굴 자세(머리 방향 및 표정)를 편집하며, 대상 특정 미세 조정 없이 일회성, 자기 및 교차 주제 재연을 가능하게 합니다. 최첨단 GAN, StyleGAN2 및 확산 기반 방법들과 비교하여 동등하거나 더 나은 성능을 보입니다.