본 논문은 협력적 다중 에이전트 강화 학습(MARL)에서 에이전트들이 하나의 큰 연합체를 형성하는 기존 방식의 문제점을 지적하고, 협력 게임 이론에 기반한 핵점(nucleolus) 기반 크레딧 할당 방식을 제안한다. 이를 통해 에이전트들이 여러 개의 작은 연합체로 자율적으로 분할되어 더 큰 복합 과제 내의 하위 과제를 효과적으로 식별하고 완료할 수 있도록 한다. 특히, 설계된 핵점 Q-학습은 각 에이전트에게 공정한 크레딧을 할당하고, 핵점 Q-연산자는 학습 수렴과 형성된 작은 연합체의 안정성에 대한 해석 가능한 이론적 보장을 제공한다. 실험 결과, Predator-Prey 및 StarCraft 시나리오에서 다양한 난이도 수준에 걸쳐 제안된 방법은 MARL 학습 중 여러 개의 효과적인 연합체의 출현을 보여주었으며, 특히 어렵고 매우 어려운 환경에서 기준 방법 4가지에 비해 승률과 누적 보상 측면에서 더 빠른 학습과 우수한 성능을 달성했다. 핵점 기반 크레딧 할당은 효과적인 에이전트 하위 팀이 필요한 복잡한 복합 과제에 대한 가능성을 보여준다.