Sign In

Multi-Agent DRL for Queue-Aware Task Offloading in Hierarchical MEC-Enabled Air-Ground Networks

Created by
  • Haebom
Category
Empty

저자

Muhammet Hevesli, Abegaz Mohammed Seid, Aiman Erbad, Mohamed Abdallah

개요

본 논문은 6G의 핵심 구성 요소인 MEC 기반 지상-항공 통합 네트워크(MAGIN)에서의 에너지 최소화 문제를 다룬다. 드론(UAV) 및 고고도 플랫폼 기지국(HAPS)과 같은 항공 기지국(ABS)을 사용하여 지상 IoT 기기(IoTD)에 동적 서비스를 제공하는 시스템에서, 실시간 애플리케이션(멀티미디어, 메타버스 서비스 등)의 높은 연산 자원 요구량과 엄격한 QoS(지연 시간, 작업 대기열 관리) 보장을 위해 IoTD의 제한된 에너지 및 처리 능력을 고려하여 작업 오프로딩을 통한 분산 처리를 수행한다. 본 논문에서는 UAV 궤적, 컴퓨팅 자원 할당 및 대기열 인식 작업 오프로딩 결정을 공동으로 최적화하여 전체 에너지 최소화 문제를 해결한다. 비볼록, 비선형 특성으로 인해 기존 방법이 효과적이지 않은 이 문제를 연속 행동 공간과 이종 에이전트를 가진 다중 에이전트 마르코프 의사 결정 과정(MDP)으로 재구성하고, 베타 분포를 사용하는 다중 에이전트 근접 정책 최적화(MAPPO-BD)의 새로운 변형을 제안하여 해결한다. 광범위한 시뮬레이션을 통해 MAPPO-BD가 기준 계획보다 우수한 에너지 절약 및 효율적인 자원 관리를 달성함을 보여준다.

시사점, 한계점

시사점:
MEC 기반 MAGIN에서 에너지 효율적인 자원 관리 및 작업 오프로딩을 위한 효과적인 방법(MAPPO-BD)을 제시한다.
다중 에이전트 강화 학습 기반의 최적화 기법을 통해 복잡한 시스템의 최적화 문제를 효과적으로 해결할 수 있음을 보여준다.
지연 시간 및 대기열 제약 조건을 만족하면서 에너지 절약을 극대화하는 효율적인 시스템 운영 전략을 제공한다.
한계점:
제안된 MAPPO-BD 알고리즘의 수렴 속도 및 계산 복잡도에 대한 추가적인 분석이 필요하다.
실제 환경의 불확실성(예: 채널 상태 변화, IoTD의 변동적인 작업 부하)을 고려하지 않아 실제 적용 가능성에 대한 추가 연구가 필요하다.
시뮬레이션 결과의 일반화 가능성을 높이기 위해 더욱 다양한 시나리오와 매개변수 설정에 대한 추가적인 실험이 필요하다.
👍