본 논문은 협력적이고 부분적으로 관찰 가능하며 의사소통이 제한적인 카드 게임 하나비를 다중 에이전트 강화 학습(MARL) 알고리즘 테스트 및 개발의 강력한 매개체로 활용합니다. 기존 연구는 다양한 협력자 수에 대한 최첨단 성능 달성을 위해 고급 아키텍처 설계 및 알고리즘 조작에 초점을 맞추었지만, 이는 높은 계산 비용과 많은 훈련 데이터를 필요로 하는 복잡한 해결 전략으로 이어졌습니다. 본 논문에서는 인간이 하나비 게임을 효과적으로 해결하기 위해 사용하는 관습을 기반으로, 여러 시간 단계와 여러 에이전트에 걸쳐 특수한 협력적 행동 순서로 작용하는 관습을 사용하여 에이전트의 행동 공간을 확장하는 새로운 방법을 제안합니다. 이러한 관습은 기존 인간의 관습을 기반으로 하며, 다양한 협력자 수에 대한 자기 플레이와 교차 플레이에서 기존 기술의 성능을 크게 향상시킵니다.