Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DiffTORI: Differentiable Trajectory Optimization for Deep Reinforcement and Imitation Learning

Created by
  • Haebom

저자

Weikang Wan, Ziyu Wang, Yufei Wang, Zackory Erickson, David Held

개요

본 논문은 차별 가능한 궤적 최적화(Differentiable Trajectory Optimization)를 정책 표현으로 사용하여 강화 학습 및 모방 학습을 위한 행동을 생성하는 DiffTORI를 소개합니다. 궤적 최적화는 제어 분야에서 널리 사용되는 강력한 알고리즘으로, 비용 함수와 동역학 함수로 매개변수화됩니다. 핵심은 차별 가능한 궤적 최적화의 최근 발전을 활용하여 궤적 최적화 매개변수에 대한 손실의 기울기를 계산하는 것입니다. 결과적으로, 궤적 최적화의 비용 및 동역학 함수를 end-to-end로 학습할 수 있습니다. DiffTORI는 궤적 최적화 과정을 통해 정책 기울기 손실을 차별화함으로써 작업 성능을 직접 극대화하도록 동역학 모델을 학습하여 기존 모델 기반 강화 학습 알고리즘의 "목표 불일치" 문제를 해결합니다. 고차원 감각 관측치를 사용하는 표준 로봇 조작 작업 세트에서 모방 학습에 대한 DiffTORI의 성능을 벤치마킹하고, 피드포워드 정책 클래스, 에너지 기반 모델(EBM) 및 확산 모델과 비교합니다. 고차원 이미지 및 포인트 클라우드 입력을 사용하는 15개의 모델 기반 강화 학습 작업과 35개의 모방 학습 작업에서 DiffTORI는 기존 최첨단 방법을 능가합니다. 코드는 https://github.com/wkwan7/DiffTORI 에서 확인할 수 있습니다.

시사점, 한계점

시사점:
차별 가능한 궤적 최적화를 활용하여 모델 기반 강화 학습 및 모방 학습의 성능을 향상시켰습니다.
고차원 감각 정보를 사용하는 복잡한 로봇 조작 작업에서 기존 최첨단 방법을 능가하는 성능을 달성했습니다.
"목표 불일치" 문제를 효과적으로 해결하는 새로운 접근 방식을 제시했습니다.
공개된 코드를 통해 재현성과 추가 연구를 지원합니다.
한계점:
특정 로봇 조작 작업에 대한 성능 평가에 국한되어 일반화 가능성에 대한 추가 연구가 필요합니다.
계산 비용이 높을 수 있으며, 실시간 응용에 대한 추가적인 최적화가 필요할 수 있습니다.
다양한 환경이나 작업에 대한 적용 가능성 및 범용성에 대한 추가적인 검증이 필요합니다.
👍