ArticuBot: Learning Universal Articulated Object Manipulation Policy via Large Scale Simulation
Created by
Haebom
Category
Empty
저자
Yufei Wang, Ziyu Wang, Mino Nakura, Pratik Bhowal, Chia-Liang Kuo, Yi-Ting Chen, Zackory Erickson, David Held
개요
ArticuBot은 다양한 종류의 보이지 않는 관절형 물체를 실제 환경에서 여는 단일 학습 정책을 사용하는 로봇 시스템입니다. 물체의 기하학적 형태, 크기, 관절 유형의 큰 차이로 인해 이 작업은 오랫동안 로봇 공학 분야의 어려운 과제였습니다. ArticuBot 시스템은 물리 기반 시뮬레이션에서 많은 양의 데모를 생성하고, 생성된 모든 데모를 모방 학습을 통해 점 구름 기반 신경 정책으로 증류하며, 실제 로봇 시스템에 제로샷 sim2real 전이를 수행하는 세 부분으로 구성됩니다. 샘플링 기반 그래스핑 및 모션 플래닝을 활용하여 데모 일반화 파이프라인은 빠르고 효과적이며, 322개의 훈련 관절형 물체에 대해 총 42,300개의 데모를 생성합니다. 정책 학습을 위해, 상위 정책은 엔드 이펙터의 하위 목표를 학습하고, 하위 정책은 예측된 목표를 조건으로 엔드 이펙터를 이동하는 방법을 학습하는 새로운 계층적 정책 표현을 제안합니다. 이 계층적 접근 방식은 비계층적 버전에 비해 훨씬 더 나은 객체 수준의 일반화를 달성함을 보여줍니다. 또한, 상위 정책에 대한 새로운 가중 변위 모델을 제안하여 예측을 장면의 기존 3D 구조에 근거하게 하여 대안적인 정책 표현을 능가합니다. 학습된 정책은 두 개의 다른 실험실에 있는 고정된 테이블탑 Franka 암과 이동식 베이스의 X-Arm이라는 세 가지 다른 실제 로봇 설정으로 제로샷 전이될 수 있으며, 두 개의 실험실, 실제 라운지 및 주방에서 여러 개의 보이지 않는 관절형 물체를 엽니다. 비디오와 코드는 프로젝트 웹사이트(https://articubot.github.io/)에서 확인할 수 있습니다.