Sign In

Non-myopic Matching and Rebalancing in Large-Scale On-Demand Ride-Pooling Systems Using Simulation-Informed Reinforcement Learning

Created by
  • Haebom
Category
Empty

저자

Farnoosh Namdarpour, Joseph Y. J. Chow

개요

승객이 차량을 공유하는 서비스인 Ride-pooling은 승객과 운영자 모두에게 비용을 절감하고 혼잡 및 환경 영향을 줄일 수 있습니다. 하지만 근시안적인 의사 결정으로 장기적인 영향을 간과하는 한계가 있습니다. 이를 해결하기 위해 시뮬레이션 기반 강화 학습(RL) 접근 방식을 제안합니다. 본 연구에서는 Xu et al. (2018)의 학습 및 계획 프레임워크를 Ride-hailing에서 Ride-pooling으로 확장하여 비근시안적 의사 결정을 가능하게 하는 Ride-pooling 시뮬레이션을 학습 메커니즘에 포함시켰습니다. 또한 유휴 차량의 재분배를 위한 보완적인 정책을 제안합니다. 시뮬레이션된 경험에 n-step temporal difference learning을 적용하여 시공간 상태 값을 도출하고, NYC 택시 요청 데이터를 사용하여 비근시안적 정책의 효과를 평가했습니다. 비근시안적 정책은 근시안적 정책에 비해 서비스 제공률을 최대 8.4%까지 증가시키고, 승객의 차량 내 시간과 대기 시간을 모두 줄일 수 있음을 보여주었습니다. 또한 제안된 비근시안적 정책은 동일한 수준의 성능을 유지하면서 차량 대수를 25% 이상 줄여 운영자에게 상당한 비용 절감을 제공할 수 있습니다. 재분배 작업을 프레임워크에 통합하면, 매칭 결정에만 프레임워크를 사용하는 것과 비교하여 대기 시간을 최대 27.3%, 차량 내 시간을 12.5% 줄이고 서비스 제공률을 15.1% 높일 수 있습니다. 단, 승객당 이동 차량 분 단위는 증가합니다.

시사점, 한계점

시사점:
Ride-pooling 시스템에서 비근시안적 정책을 통해 서비스 효율성을 향상시킬 수 있음을 입증했습니다.
차량 대수 감소를 통해 운영 비용을 절감할 수 있습니다.
재분배 정책을 통해 승객의 대기 시간과 차량 내 시간을 단축하고 서비스 제공률을 높일 수 있습니다.
한계점:
승객당 이동 차량 분 단위가 증가하는 문제점이 있습니다.
👍