Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Continually Evolving Skill Knowledge in Vision Language Action Model

Created by
  • Haebom
Category
Empty

저자

Yuxuan Wu, Guangming Wang, Zhiheng Yang, Maoqing Yao, Brian Sheil, Hesheng Wang

Stellar VLA: 지식 기반 지속 학습 프레임워크

개요

본 논문은 열린 환경에서 일반적인 로봇 지능을 개발하기 위한 지속적인 기술 학습의 필요성을 강조합니다. 대규모 사전 학습 데이터를 활용하는 최근의 VLA(Vision-Language-Action) 모델이 다양한 조작 작업을 지원하지만, 여전히 작업별 미세 조정에 의존하여 지속 학습 능력이 부족하다는 점을 지적합니다. 또한 기존의 지속 학습 방법은 VLA 모델로 확장하기에 자원 집약적입니다. 이에 본 연구에서는 두 가지 변형: T-Stellar (작업 중심 지식 공간 모델링) 및 TS-Stellar (계층적 작업-기술 구조 캡처)을 포함하는 지식 기반 지속 학습 프레임워크인 Stellar VLA를 제안합니다. Stellar VLA는 작업 잠재 표현과 지식 공간의 공동 학습을 통해 자기 지도 학습 기반 지식 진화를 가능하게 하여 주석 필요성을 줄입니다. 지식 기반 전문가 라우팅은 추가 네트워크 매개변수 없이 작업 특화를 제공하여 학습 오버헤드를 낮춥니다. LIBERO 벤치마크 및 실제 작업 실험 결과, 기존 baseline 대비 최종 성공률에서 평균 50% 이상 향상을 보였으며, TS-Stellar는 복잡한 액션 추론에서도 뛰어난 성능을 보였습니다.

시사점, 한계점

시사점:
지속적인 기술 학습을 위한 새로운 프레임워크인 Stellar VLA 제안
T-Stellar 및 TS-Stellar의 두 가지 변형을 통해 다양한 접근 방식 제시
자기 지도 학습 기반 지식 진화 및 지식 기반 전문가 라우팅을 통한 학습 효율성 향상
LIBERO 벤치마크 및 실제 작업에서 우수한 성능 입증
TS-Stellar는 복잡한 액션 추론에 특화된 성능
한계점:
코드 공개 예정 (현재 릴리즈되지 않음)
더 구체적인 성능 지표 및 분석 필요성
다른 VLA 모델과의 비교 분석 부족 가능성
👍