본 논문은 로봇 조작에서 시각 정보와 고유수용성 상태 정보를 모두 사용하는 모방 학습 기반 시각-운동 정책의 한계점을 지적한다. 기존 방식은 고유수용성 상태 정보에 과도하게 의존하여 훈련 데이터에 과적합되고 공간 일반화 성능이 저조하다는 것을 실험적으로 보여준다. 이에 따라, 고유수용성 상태 정보를 제거하고 시각 정보만을 조건으로 행동을 예측하는 '상태 없는 정책(State-free Policy)'을 제안한다. 이 정책은 상대적인 핸드 효과기 행동 공간에서 구축되며, 듀얼 와이드 앵글 손목 카메라를 통해 완전한 작업 관련 시각 정보를 제공받는다. 실험 결과, 상태 없는 정책은 픽앤플레이스, 셔츠 접기, 복잡한 전신 조작 등 다양한 로봇 구현체와 작업에서 상태 기반 정책보다 훨씬 향상된 공간 일반화 성능(높이 일반화 0%에서 85%, 수평 일반화 6%에서 64%)을 보여준다. 또한 데이터 효율성과 구현체 간 적응성에서도 이점을 보이며 실세계 배포의 실용성을 높인다.
시사점, 한계점
•
시사점:
◦
고유수용성 상태 정보에 대한 과도한 의존이 로봇 조작의 공간 일반화 성능을 저해한다는 것을 밝힘.
◦
시각 정보만을 이용하는 상태 없는 정책이 공간 일반화, 데이터 효율성, 구현체 간 적응성을 크게 향상시킨다는 것을 증명.
◦
다양한 로봇 작업(픽앤플레이스, 셔츠 접기, 전신 조작 등)과 구현체에서 성능 향상을 실험적으로 검증.
◦
실세계 로봇 조작 응용을 위한 실용적인 정책을 제시.
•
한계점:
◦
듀얼 와이드 앵글 손목 카메라와 같은 특정한 시각 정보 획득 방식에 의존적일 수 있음.
◦
제안된 정책의 일반화 성능이 모든 유형의 로봇 조작 작업에 대해 동일하게 적용될 수 있는지 추가적인 연구가 필요함.