본 논문은 모방 학습을 통해 로봇의 숙련된 행동을 가능하게 하지만, 샘플 효율성 저하와 일반화의 한계로 장기간, 다중 객체 작업에 어려움을 겪는다는 점을 지적합니다. 기존 방법들은 가능한 작업 변화를 다루기 위해 많은 데모가 필요하여 현실 세계 적용에 비용이 많이 들고 비실용적입니다. 본 연구는 상태 및 행동 공간에 대한 구조화된 표현인 지향적 어포던스 프레임(oriented affordance frames)을 도입하여 공간 및 범주 내 일반화를 개선하고 단 10개의 데모만으로 정책을 효율적으로 학습할 수 있도록 합니다. 더 중요한 것은 이러한 추상화를 통해 독립적으로 훈련된 하위 정책의 구성적 일반화를 통해 장기간, 다중 객체 작업을 해결할 수 있음을 보여줍니다. 하위 정책 간의 원활한 전환을 위해 훈련 데모의 지속 시간에서 직접 도출한 자체 진행 예측(self-progress prediction) 개념을 도입합니다. 다단계, 다중 객체 상호 작용이 필요한 세 가지 실제 작업에 대한 실험을 통해, 소량의 데이터에도 불구하고 정책이 보이지 않는 객체 외형, 기하학적 형태, 공간 배열에 대해 강력하게 일반화되고, 방대한 훈련 데이터에 의존하지 않고 높은 성공률을 달성함을 검증합니다.