本論文は、単一エージェント強化学習における安全性を確保するためのProbabilistic Logic Shields(PLS)をマルチエージェント環境に拡張したShielded Multi-Agent Reinforcement Learning(SMARL)フレームワークを提案します。 SMARLは、確率的制約を価値の更新プロセスに直接統合する新しいProbabilistic Logic Temporal Difference(PLTD)アップデートと、MARLの正式な安全性保証を提供する確率的論理ポリシー勾配方法を提示します。対称的で非対称的な方法で制約が適用された様々なn-playerゲーム理論のベンチマークで評価を行い、従来の方法よりも制約違反が少なく、協力レベルが大幅に向上することを示しました。これにより、SMARLは安全で社会的に調和したマルチエージェントシステムのための効果的なメカニズムとして位置づけることができることを示唆しています。