본 논문은 대규모 언어 모델의 성공에 따른 인간-AI 상호 작용의 새로운 흐름에 발맞춰, 춤을 통해 창의적인 인간-AI 상호 작용을 탐구합니다. 모션 캡처 데이터를 기반으로 하는 대화형 모델을 구축하여, 입력된 움직임 데이터를 부분적으로 모방하고 "창의적으로" 향상시켜 인공적인 상대를 생성합니다. 이 모델은 단일 인물 모션 데이터와 고차원 특징을 활용하여, 저차원 인간-인간 상호 작용 데이터에 의존하지 않고, 모션 인페인팅 및 모션 스타일 전송과 같은 두 가지 확산 모델의 아이디어를 결합하여 시간적으로 일관되고 선택된 움직임 참조에 반응하는 움직임 표현을 생성합니다. 생성된 샘플의 특징 분포와 테스트 세트 간의 수렴을 정량적으로 평가하여 모델의 성공을 입증합니다.