본 논문은 제한된 통신, 중앙 집중식 제어 부재, 부분 관측 가능성 등과 같은 현실적인 제약 조건 하에서 작동하는 자율 주행 차량의 협업을 위한 분산형 Multi-Agent Reinforcement Learning (MARL) 프레임워크를 제안합니다. 이 프레임워크는 에이전트 역할을 하는 차량이 로컬 목표와 관측에 기반하여 선택적으로 통신할 수 있도록 하며, 이를 통해 관련 정보만 공유하여 협업을 강화하고 가시성 제한을 준수합니다. 복잡한 다중 에이전트 네비게이션 작업에서 접근 방식을 검증했으며, 비협력적 기준선에 비해 작업 성공률과 목표 도달 시간을 크게 향상시켰습니다. 또한, 에이전트 수가 증가함에 따라 작업 성능이 안정적으로 유지되어 확장성을 입증했습니다.