Towards Autonomous Reinforcement Learning for Real-World Robotic Manipulation with Large Language Models
Created by
Haebom
Category
Empty
저자
Niccolo Turcato, Matteo Iovino, Aris Synodinos, Alberto Dalla Libera, Ruggero Carli, Pietro Falco
개요
본 논문은 대규모 언어 모델(LLM)과 시각 언어 모델(VLM)의 발전이 로봇공학에 미치는 영향, 특히 고수준 의미적 동작 계획 응용 프로그램에 대한 영향을 다룹니다. 강화 학습(RL)을 보완적인 패러다임으로 사용하여 에이전트가 상호 작용과 보상 신호를 통해 복잡한 행동을 자율적으로 최적화할 수 있도록 합니다. 그러나 실제 작업 환경에서 희소 보상은 불충분하고 밀집 보상은 정교한 설계를 필요로 하기 때문에 RL을 위한 효과적인 보상 함수를 설계하는 것은 여전히 어려운 과제입니다. 본 연구에서는 사전 훈련된 LLM인 GPT-4를 활용하여 자연어 작업 설명에서 직접 보상 함수를 생성하는 비지도 학습 파이프라인인 ARCHIE(Autonomous Reinforcement learning for Complex Human-Informed Environments)를 제안합니다. 생성된 보상은 시뮬레이션 환경에서 RL 에이전트를 훈련하는 데 사용되며, 보상 생성 프로세스를 공식화하여 실행 가능성을 높입니다. 또한 GPT-4는 작업 성공 기준의 코딩을 자동화하여 사람이 읽을 수 있는 텍스트를 배포 가능한 로봇 기술로 변환하는 완전 자동화된 원샷 절차를 만듭니다. ABB YuMi 협업 로봇을 사용한 단일 암 및 양손 조작 작업에 대한 광범위한 시뮬레이션 실험을 통해 접근 방식의 실용성과 효과를 검증하고 실제 로봇 설정에서 작업을 시연합니다.
시사점, 한계점
•
시사점:
◦
자연어를 사용하여 로봇 작업을 위한 보상 함수를 자동으로 생성하는 새로운 방법을 제시합니다.
◦
GPT-4를 활용하여 RL 에이전트 훈련을 위한 완전 자동화된 원샷 절차를 구현합니다.
◦
시뮬레이션과 실제 로봇 환경 모두에서 접근 방식의 효과를 검증합니다.
◦
다양한 로봇 조작 작업(단일 암 및 양손 조작)에 적용 가능성을 보여줍니다.
•
한계점:
◦
GPT-4의 성능에 의존하며, GPT-4의 한계가 ARCHIE의 성능에 영향을 미칠 수 있습니다.
◦
시뮬레이션 환경에서의 성공이 실제 환경으로 완벽하게 일반화될 수 있는지에 대한 검증이 더 필요합니다.