Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Multi-Timescale Hierarchical Reinforcement Learning for Unified Behavior and Control of Autonomous Driving

Created by
  • Haebom

저자

Guizhe Jin, Zhuoren Li, Bo Leng, Ran Yu, Lu Xiong, Chen Sun

개요

본 논문은 자율 주행(AD)에서 강화 학습(RL)의 단점인 정책 구조 설계의 미흡을 해결하기 위해 다중 시간 척도 계층적 강화 학습 접근 방식을 제안합니다. 기존 RL 기반 AD 방법들은 단기간의 차량 제어 명령만 출력하는 정책 또는 장기간의 주행 목표만 출력하는 정책으로 인해 주행 행동의 불안정성 또는 최적화 부족 문제를 야기합니다. 본 연구에서는 고수준 정책과 저수준 정책을 통합적으로 학습시켜 장기간의 주행 안내와 단기간의 제어 명령을 각각 생성하는 계층적 정책 구조를 제안합니다. 고수준 정책은 다중 모드 주행 행동을 포착하고 저수준 정책의 상태 업데이트를 지원하는 혼합 행동(hybrid actions)으로 주행 안내를 명시적으로 표현합니다. 또한, 다중 시간 척도 안전 메커니즘을 설계하여 안전성을 확보합니다. 시뮬레이터 기반 및 HighD 데이터셋 기반 고속도로 다차선 시나리오에서의 평가 결과, 제안된 접근 방식이 주행 효율성, 행동 일관성 및 안전성을 효과적으로 향상시키는 것을 보여줍니다.

시사점, 한계점

시사점:
다중 시간 척도 계층적 강화 학습을 통해 자율 주행의 안정성과 효율성을 향상시킬 수 있음을 보여줍니다.
혼합 행동(hybrid actions)을 이용한 고수준 정책 표현이 다중 모드 주행 행동을 효과적으로 포착할 수 있음을 시사합니다.
계층적 안전 메커니즘을 통해 다중 시간 척도에서의 안전성을 확보할 수 있음을 보여줍니다.
한계점:
제안된 방법의 실제 도로 환경에서의 성능 검증이 부족합니다.
시뮬레이터 및 HighD 데이터셋에 대한 의존도가 높아 일반화 성능에 대한 추가적인 연구가 필요합니다.
계층적 구조의 복잡성으로 인해 학습 시간 및 계산 비용이 증가할 수 있습니다.
👍