PRIMAL은 상호작용형 아바타의 모터 시스템을 구축하기 위해 지속적이고, 현실적이며, 제어 가능하고, 반응성 있는 방식으로 신체를 3D 공간에서 움직이도록 하는 생성적 모션 모델을 제안하는 논문입니다. 기존의 모션 생성 방법들이 오프라인 설정, 느린 속도, 제한된 모션 길이, 비자연스러운 움직임 등으로 '구현된 지능'을 지원하지 못하는 한계를 극복하기 위해, 두 단계 패러다임으로 학습되는 자기회귀 확산 모델을 제시합니다. 먼저 사전 학습 단계에서 다수의 초 단위 모션 세그먼트로부터 모션 역학을 학습하여 복잡한 동작을 구축하는 '모터 원형'을 제공합니다. 적응 단계에서는 ControlNet과 유사한 어댑터를 사용하여 의미적 행동 생성 및 공간 목표 도달을 위한 모터 제어를 미세 조정합니다. 실험 결과, 물리 효과가 학습 과정에서 나타나며, 단일 프레임 초기 상태가 주어지면 제한 없이 현실적이고 제어 가능한 모션을 생성하고, 실시간으로 유도된 충격에 반응하는 아바타를 가능하게 함을 보여줍니다. 또한 기본 모델을 소수 샷 개인화된 동작과 공간 제어 작업에 효과적이고 효율적으로 적용할 수 있음을 보여주며, 최첨단 기준 모델보다 성능이 우수함을 입증합니다. Unreal Engine에서 실시간으로 고반응성과 자연스러운 캐릭터 애니메이션 시스템을 만드는 데 활용됩니다.