본 논문은 협력적, 적대적, 혼합 환경에서 연속 행동 공간을 갖는 다중 에이전트 강화 학습을 위한 분산 학습을 갖는 세 가지 actor-critic 알고리즘을 제시합니다. 이를 위해, 에이전트 간 네트워크 통신 접근 방식을 적용하여 MADDPG 알고리즘을 수정합니다. 학습 중 지역적 통신을 허용하면서 동시에 학습을 분산하기 위해 대리 정책(surrogate policies)을 도입합니다. 실험 결과, 제시된 분산 알고리즘은 원래 MADDPG와 비슷한 결과를 달성하면서 계산 비용을 줄였으며, 특히 에이전트 수가 많을수록 효과가 더욱 두드러집니다.