본 논문은 중앙 집중 훈련, 분산 실행 환경에서 협력적이고 시간적 목표를 달성하기 위한 다중 작업, 다중 에이전트 정책 학습 문제를 연구한다. 작업을 오토마타로 표현하여 복잡한 작업을 에이전트에게 할당할 수 있는 간단한 하위 작업으로 분해한다. 기존 접근 방식은 샘플 효율성이 낮고 단일 작업 사례로 제한된다는 한계가 있다. 본 논문에서는 작업 조건부, 분산 팀 정책 학습을 위한 프레임워크인 ACC-MARL (Automata-Conditioned Cooperative Multi-Agent Reinforcement Learning)을 제시하고, ACC-MARL의 실용화에 필요한 주요 과제를 파악하고 해결책을 제시하며, 접근 방식의 정확성을 증명한다. 또한, 학습된 정책의 가치 함수를 사용하여 테스트 시 최적의 작업 할당이 가능함을 보여준다. 실험 결과, 버튼을 눌러 문을 열고 문을 잡고 작업을 단축하는 등 에이전트 간의 작업 인식, 다단계 협업이 나타났다.