RLZero: Direct Policy Inference from Language Without In-Domain Supervision
Created by
Haebom
Category
Empty
저자
Harshit Sikchi, Siddhant Agarwal, Pranaya Jajoo, Samyak Parajuli, Caleb Chuck, Max Rudolph, Peter Stone, Amy Zhang, Scott Niekum
개요
본 논문은 임의의 자연어 지시로부터 제로샷 테스트 시간 정책 추론을 얻기 위해 사전 훈련된 RL 에이전트를 사용하는 새로운 접근 방식을 제시합니다. 이는 비지도, 오프라인 상호 작용만을 사용하여 훈련되며, 작업별 감독이나 레이블이 지정된 궤적이 필요하지 않습니다. 제안된 프레임워크는 상상, 투영, 모방의 세 단계를 포함합니다. 이 방법론은 다양한 작업과 환경에서 직접적인 언어-행동 생성 능력을 보여주는 최초의 접근 방식이며, 휴머노이드와 같은 복잡한 구현에 대해서도 YouTube와 같은 교차 구현 비디오에서 제로샷 정책을 생성하는 데 사용할 수 있습니다.
시사점, 한계점
•
시사점:
◦
어떠한 도메인 내 감독 없이 임의의 자연어 지시로부터 제로샷 정책을 생성하는 최초의 접근 방식.