다중 에이전트 다중 목표 시스템(MAMOS)은 로봇 탐사, 자율 교통 관리, 센서 네트워크 최적화 등 다양한 실제 문제 해결에 강력한 프레임워크로 부상했습니다. MAMOS는 분산 제어를 통해 확장성과 견고성을 향상시키며, 상충되는 목표 간의 내재적 트레이드 오프를 보다 정확하게 반영합니다. 본 논문에서는 MAMOS 최적화 방법이 이질적인 목표 및 유틸리티 함수 설정에서 겪는 어려움을 해결하기 위해, 에이전트-어텐션 기반의 MAMOS 강화 학습 프레임워크(AA-MAMORL)를 제안합니다. 제안된 프레임워크는 중앙 집중식 훈련 동안 다른 에이전트의 유틸리티 함수와 정책에 대한 결합된 신념을 암묵적으로 학습하여 각 에이전트의 정책에 글로벌 상태와 유틸리티를 효과적으로 매핑합니다. 실험 결과, 글로벌 선호도 접근과 AA-MAMORL이 성능을 크게 향상시키고, 기존의 최첨단 방법들을 지속적으로 능가함을 확인했습니다.