Sign In

VisualPredicator: Learning Abstract World Models with Neuro-Symbolic Predicates for Robot Planning

Created by
  • Haebom
Category
Empty

저자

Yichao Liang, Nishanth Kumar, Hao Tang, Adrian Weller, Joshua B. Tenenbaum, Tom Silver, Joao F. Henriques, Kevin Ellis

개요

본 논문은 광범위한 지능형 에이전트가 작업 특유의 추상화를 형성하여 작업의 필수 요소만을 선택적으로 노출하고 원시적인 감각 운동 공간의 복잡성은 추상화해야 한다는 점을 제기한다. 이를 위해, 기호적 및 신경망 지식 표현의 장점을 결합한 1차 추상화 언어인 신경 기호술 예측 변수(Neuro-Symbolic Predicates)를 제시한다. 해당 예측 변수를 생성하고 추상적인 세계 모델을 학습하는 온라인 알고리즘을 개략적으로 설명하고, 5개의 시뮬레이션된 로봇 도메인에서 분포 내 및 분포 외 작업에 대해 계층적 강화 학습, 시각 언어 모델 계획, 기호적 예측 변수 생성 방식과 비교한다. 실험 결과, 제시된 방법이 더 나은 샘플 복잡도, 강력한 분포 외 일반화 및 향상된 해석성을 제공함을 보여준다.

시사점, 한계점

시사점:
신경 기호술 예측 변수를 활용한 추상화는 향상된 샘플 복잡도, 강력한 분포 외 일반화 및 향상된 해석성을 제공한다.
다양한 로봇 도메인에서의 실험 결과를 통해 제안된 방법의 우수성을 검증하였다.
기호적 및 신경망 표현의 장점을 통합한 새로운 접근 방식을 제시하였다.
한계점:
현재는 시뮬레이션된 환경에서만 평가되었으며, 실제 로봇 환경으로의 확장 가능성에 대한 추가 연구가 필요하다.
제안된 알고리즘의 복잡도 및 계산 비용에 대한 분석이 부족하다.
다양한 종류의 작업 및 환경에 대한 일반화 성능을 더욱 폭넓게 평가해야 한다.
👍