Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Hierarchical Reinforcement Learning with Low-Level MPC for Multi-Agent Control

Created by
  • Haebom

作者

Max Studt, Georg Schildbach

概要

動的で制約の高い環境で安全で調和のとれた行動を達成することは、学習ベースの制御の主な課題です。本論文は、強化学習(RL)による戦術的意思決定とモデル予測制御(MPC)による低レベル実行を組み合わせた階層フレームワークを提案する。マルチエージェントシステムの場合、これは、高レベルのポリシーが構造化関心領域(ROI)から抽象的な目標を選択し、MPCが動的に実行可能で安全な動きを保証することを意味します。捕食者と被験者のベンチマークでテストした結果、このアプローチは、補償、安全性、および一貫性の観点から、エンドツーエンドおよびシールドベースのRLベースのモデルよりも優れたパフォーマンスを示し、構造化学習とモデルベースの制御の組み合わせの利点を強調します。

Takeaways、Limitations

Takeaways:
強化学習(RL)による戦術的な意思決定とモデル予測制御(MPC)を組み合わせた階層フレームワークの提案。
マルチエージェントシステムにおける高水準政策とMPCの連携により安全で一貫した行動を達成
捕食者と被食者のベンチマークにおけるエンドツーエンドとシールドベースのRLベースのモデルよりも優れたパフォーマンスを実証
Limitations:
具体的なLimitationsは論文に記載されていません。 (要約に含まれる内容で判断)
👍