AdaDexGrasp는 제한된 인간 시범으로부터 효율적으로 숙련된 파지 기술을 학습하고 사용자 지시에 따라 적응적으로 적용하는 프레임워크입니다. 단일 인간 시범으로부터 여러 파지 기술을 학습하고, 비전-언어 모델(VLM)을 사용하여 가장 적합한 기술을 선택합니다. 샘플 효율성을 높이기 위해 인간 시범에 가까운 상태로 강화 학습(RL)을 유도하는 궤적 추종 보상을 제안하고, 다양한 객체 자세 변화를 점진적으로 증가시키는 커리큘럼 학습을 통해 단일 시범을 넘어 학습합니다. 배포 시, VLM은 사용자 지시에 따라 적절한 기술을 검색하여 저수준 학습 기술과 고수준 의도를 연결합니다. 시뮬레이션 및 실제 환경에서 평가하여 RL 효율성을 크게 향상시키고 다양한 객체 구성에서 인간과 유사한 파지 전략 학습을 가능하게 함을 보여줍니다. 실제 PSYONIC Ability Hand로 학습된 정책을 제로샷 전이하여 객체에 대해 90%의 성공률을 달성하며 기준선을 크게 능가합니다.