본 논문은 이벤트 카메라 데이터를 활용하여 정적 인간 이미지를 동적으로 애니메이션화하는 새로운 프레임워크인 EvAnimate를 제안합니다. 기존의 비디오 기반 모션 큐의 한계(낮은 시간 해상도, 모션 블러, 과다 노출 등)를 극복하기 위해 이벤트 카메라의 높은 시간 해상도, 넓은 다이나믹 레인지, 모션 블러 및 노출 문제에 대한 내성 등의 장점을 활용합니다. EvAnimate는 이벤트 스트림을 제어 가능한 슬라이싱 속도와 슬라이스 밀도를 가진 3채널 슬라이스로 변환하는 특수한 이벤트 표현 방식과, 이벤트 스트림의 고유한 모션 역학을 활용하여 고품질 비디오를 생성하는 이중 분기 아키텍처를 사용합니다. 또한, 새로운 벤치마킹을 위해 시뮬레이션된 이벤트 데이터와 실제 이벤트 데이터셋을 구축하고, 특수한 데이터 증강 전략을 통해 사람 간 일반화 성능을 향상시켰습니다. 실험 결과, EvAnimate는 기존 비디오 기반 방법보다 시간적 정확도가 높고, 열악한 조건에서도 강인한 성능을 보여줍니다.