Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Hierarchical Reinforcement Learning with Low-Level MPC for Multi-Agent Control

Created by
  • Haebom

저자

Max Studt, Georg Schildbach

개요

동적이고 제약이 많은 환경에서 안전하고 조화로운 행동을 달성하는 것은 학습 기반 제어의 주요 과제이다. 본 논문은 강화 학습(RL)을 통한 전술적 의사 결정과 모델 예측 제어(MPC)를 통한 저수준 실행을 결합하는 계층적 프레임워크를 제안한다. 다중 에이전트 시스템의 경우, 이는 고수준 정책이 구조화된 관심 영역(ROI)에서 추상적인 목표를 선택하고 MPC가 동적으로 실행 가능하고 안전한 움직임을 보장함을 의미한다. 포식자-피식자 벤치마크에서 테스트한 결과, 본 접근 방식은 보상, 안전성 및 일관성 측면에서 end-to-end 및 쉴딩 기반 RL 기반 모델보다 우수한 성능을 보이며, 구조화된 학습과 모델 기반 제어의 결합의 이점을 강조한다.

시사점, 한계점

시사점:
강화 학습(RL)을 통한 전술적 의사 결정과 모델 예측 제어(MPC)를 결합한 계층적 프레임워크 제안.
다중 에이전트 시스템에서 고수준 정책과 MPC의 협력을 통해 안전하고 일관된 행동을 달성.
포식자-피식자 벤치마크에서 end-to-end 및 쉴딩 기반 RL 기반 모델보다 우수한 성능 입증.
한계점:
구체적인 한계점은 논문에 명시되지 않음. (요약에 포함된 내용으로 판단)
👍