Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

BridgeVLA: Input-Output Alignment for Efficient 3D Manipulation Learning with Vision-Language Models

Created by
  • Haebom

저자

Peiyan Li, Yixiang Chen, Hongtao Wu, Xiao Ma, Xiangnan Wu, Yan Huang, Liang Wang, Tao Kong, Tieniu Tan

개요

본 논문은 사전 훈련된 시각-언어 모델(VLM)을 활용하여 효과적인 로봇 조작 학습을 위한 새로운 3D 시각-언어-행동(VLA) 모델인 BridgeVLA를 소개합니다. BridgeVLA는 3D 입력을 여러 2D 이미지로 투영하고 2D 히트맵을 사용하여 동작을 예측하여 VLM 백본과의 정렬을 보장하고, 일관된 2D 이미지 공간 내에서 입력과 출력 공간을 통합합니다. 또한, 다운스트림 정책 학습 전에 2D 히트맵을 예측할 수 있도록 VLM 백본을 갖추는 확장 가능한 사전 훈련 방법을 제안합니다. 실험 결과, BridgeVLA는 세 개의 시뮬레이션 벤치마크에서 최첨단 기준선을 능가하며, RLBench에서 평균 성공률을 88.2%로, COLOSSEUM에서 64.0%로, GemBench에서 다른 모든 기준선을 능가하는 성능을 보였습니다. 실제 로봇 실험에서도 BridgeVLA는 최첨단 기준선보다 32% 더 높은 성능을 보였으며, 시각적 방해 및 새로운 지침을 포함한 여러 분포 외 설정에서 강력한 일반화 성능을 보였습니다.

시사점, 한계점

시사점:
3D 데이터를 VLM에 통합하여 로봇 조작 학습의 효율성과 성능을 향상시킴
2D 이미지 공간 내에서 입력과 출력을 통일하여 데이터 처리의 일관성을 확보
확장 가능한 사전 훈련 방법을 통해 VLM 백본의 2D 히트맵 예측 능력을 향상시킴
시뮬레이션 및 실제 로봇 실험에서 우수한 성능 입증
적은 수의 궤적으로 높은 성공률을 달성하여 뛰어난 샘플 효율성 입증
한계점:
구체적인 한계점은 논문에서 명시적으로 언급되지 않음 (아마도, 3D 데이터의 처리와 2D로의 변환 과정에서 정보 손실 가능성, 모델의 복잡성, 계산 비용 등)
👍