Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Disentangling Uncertainty for Safe Social Navigation using Deep Reinforcement Learning

Created by
  • Haebom

저자

Daniel Flogel, Marcos Gomez Villafane, Joshua Ransiek, Soren Hohmann

개요

본 논문은 보행자 밀집 환경에서 안전한 자율 이동 로봇 내비게이션을 위한 새로운 접근 방식을 제시합니다. 딥 강화 학습(DRL) 기반의 로봇 행동에 불확실성 추정을 통합하여, 알레아토릭, 에피스테믹, 예측 불확실성을 고려합니다. 관측값 의존 분산(ODV)과 드롭아웃을 PPO 알고리즘에 통합하고, 딥 앙상블과 몬테카를로 드롭아웃(MC-dropout)을 비교 분석하여 정책의 불확실성을 추정합니다. 불확실한 의사결정 상황에서는 로봇의 사회적 행동을 보수적인 충돌 회피로 전환합니다. 실험 결과, ODV와 드롭아웃을 사용한 PPO의 향상된 학습 성능과, 학습 시나리오가 일반화에 미치는 영향을 보여줍니다. MC-dropout은 섭동에 더 민감하게 반응하고 불확실성 유형과 섭동을 더 잘 상관시키는 것으로 나타났습니다. 안전한 행동 선택을 통해 로봇은 섭동 환경에서 충돌을 줄이며 내비게이션을 수행할 수 있습니다.

시사점, 한계점

시사점:
DRL 기반 로봇 내비게이션에 대한 불확실성 추정 통합을 통해 안전성 향상 가능성 제시.
ODV와 드롭아웃을 활용한 PPO 알고리즘 개선으로 학습 성능 향상 확인.
MC-dropout의 섭동 민감도 및 불확실성 유형과의 상관관계 분석을 통해 더욱 정교한 불확실성 추정 가능성 제시.
보수적인 충돌 회피 전략을 통한 안전한 로봇 내비게이션 실현 가능성 확인.
한계점:
실험 환경의 특수성으로 인한 일반화 가능성에 대한 추가 검증 필요.
다양한 유형의 섭동 및 보행자 상호작용에 대한 로버스트니스 추가 연구 필요.
실제 환경 적용 시 발생할 수 있는 계산 비용 및 실시간 처리 성능에 대한 평가 필요.
👍