본 논문은 자율 에이전트 간의 부분적 정렬과 갈등으로 인해 발생하는 혼합 동기 시나리오에 초점을 맞추고 있습니다. 에이전트들은 협력이 더 나은 결과를 가져올 때에도 실제로 협력하지 못하는 경우가 있는데, 그 이유 중 하나는 신뢰할 수 없는 약속 때문입니다. 이 문제를 해결하기 위해, 에이전트들이 자발적으로 미래 계획을 약속할 수 있는 Markov Commitment Games (MCGs)를 제안합니다. MCGs를 기반으로, 정책 경사를 이용한 학습 가능한 약속 프로토콜을 제시하고, 사회적 후생을 개선하는 평형 상태로의 수렴을 가속화하기 위한 인센티브 호환 학습을 제안합니다. 실험 결과는 까다로운 혼합 동기 작업에서 제안된 방법이 기존 방법에 비해 더 빠른 경험적 수렴과 더 높은 수익을 보여줍니다. 코드는 https://github.com/shuhui-zhu/DCL 에서 확인할 수 있습니다.