본 논문은 로봇이 자체적인 시각 정보만을 이용하여 자기 모형, 운동학 및 모터 제어를 모델링하고 예측하는 자기 지도 학습 프레임워크를 제시합니다. 이는 인간이 거울을 통해 자신의 움직임을 관찰하는 것과 유사하게, 로봇이 자신의 움직임을 관찰하여 자기 자신을 시뮬레이션하고 공간적 움직임을 예측하는 능력을 학습하는 것을 목표로 합니다. 광범위한 실제 데이터 수집이나 운동학적 사전 지식 없이도 단시간의 원시 비디오 데이터만으로 로봇의 자가 시뮬레이션을 가능하게 하여 정확한 동작 계획은 물론 이상 감지 및 손상 복구까지 가능함을 보여줍니다.