본 논문은 기존의 음악에 반응하는 일방향적인 무용 공연 방식에서 벗어나, 무용수의 움직임으로 음악 환경을 역동적으로 변화시키는 시스템을 제시합니다. 다양한 사전 녹음된 음악 클립을 무용수의 움직임에 반응하여 지능적으로 결합하여 일관된 음악 작곡을 생성하는 다중 모달 아키텍처를 통해 무용수가 공연자이자 작곡가 역할을 동시에 수행하는 양방향 창작 파트너십을 구축합니다. 성과 데이터의 상관 분석을 통해 움직임 특성과 오디오 특징 간의 새로운 상호 작용 패턴을 보여주며, AI를 수동적인 도구가 아닌, 전문 무용 공연과 광범위한 대중의 즉흥적 예술 표현의 가능성을 확장하는 반응적인 협력자로 재정의합니다.