Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Multi-Agent Reinforcement Learning for Heterogeneous Satellite Cluster Resources Optimization

Created by
  • Haebom
Category
Empty

저자

Mohamad A. Hady, Siyi Hu, Mahardhika Pratama, Zehong Cao, Ryszard Kowalczyk

개요

본 연구는 강화 학습(Reinforcement Learning, RL)을 활용하여 자율적인 지구 관측(Earth Observation, EO) 임무를 수행하는 이종 위성 클러스터의 자원 최적화를 탐구한다. 두 개의 광학 위성과 하나의 SAR(Synthetic Aperture Radar) 위성이 저궤도에서 협력하여 지상 목표물을 포착하고 제한된 온보드 자원을 효율적으로 관리하는 설정을 제안한다. RL 및 다중 에이전트 강화 학습(Multi-Agent Reinforcement Learning, MARL)을 사용하여 EO 운영의 실시간성, 불확실성 및 분산 특성을 처리하며, 에너지 및 메모리 제약, 부분 관측, 다양한 페이로드 기능으로 인한 에이전트 이질성 등 주요 과제를 해결한다. Basilisk 및 BSK-RL 프레임워크를 기반으로 구축된 근사 현실 시뮬레이션 환경을 사용하여 MAPPO, HAPPO 및 HATRPO와 같은 최첨단 MARL 알고리즘의 성능과 안정성을 평가한다. 연구 결과는 MARL이 이미징 성능과 자원 활용을 균형 있게 유지하면서 비정상성 및 에이전트 간 보상 결합을 완화하며 이종 위성 간의 효과적인 조정을 가능하게 함을 보여준다.

시사점, 한계점

MARL은 이종 위성 클러스터에서 효과적인 조정 및 자원 최적화를 가능하게 한다.
에너지 및 메모리 제약, 부분 관측, 에이전트 이질성과 같은 실제 EO 임무의 주요 과제를 해결한다.
MAPPO, HAPPO, HATRPO와 같은 최첨단 MARL 알고리즘의 성능을 평가하고 안정성을 입증했다.
확장 가능하고 자율적인 위성 운영에 대한 실용적인 통찰력을 제공한다.
이종 및 동적 환경에서 지능형 EO 임무 계획에 대한 기초를 제공한다.
구체적인 한계점은 논문에 명시되지 않음. (논문 요약에 한계점 관련 내용이 없음)
👍