본 논문은 무선 근거리 통신망에서 분산 채널 접근 문제 해결을 위해 다중 에이전트 강화 학습(MARL)을 활용하는 방법을 연구합니다. 특히, 에이전트들이 가치 기반 또는 정책 기반 강화 학습 알고리즘을 이종적으로 채택하는 어려우면서도 실용적인 경우를 고려합니다. 중앙 집중식 훈련과 분산 실행 패러다임을 채택하여 이종 에이전트 간의 협업을 가능하게 하는 QPMIX라는 이종 MARL 훈련 프레임워크를 제안합니다. 또한 선형 가치 함수 근사를 사용할 때 제안된 이종 MARL 방법의 수렴성을 이론적으로 증명합니다. 이 방법은 네트워크 처리량을 극대화하고 스테이션 간의 공정성을 보장하여 전반적인 네트워크 성능을 향상시킵니다. 시뮬레이션 결과는 제안된 QPMIX 알고리즘이 포화 트래픽 시나리오에서 기존의 CSMA/CA 메커니즘과 비교하여 처리량, 평균 지연 시간, 지연 지터 및 충돌률을 개선함을 보여줍니다. 더 나아가 QPMIX 알고리즘은 불포화 및 지연 민감형 트래픽 시나리오에서도 강건하며, 기존 CSMA/CA 메커니즘과 잘 공존하고 이종 에이전트 간의 협력을 증진시킵니다.