Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Heterogeneous Multi-Agent Proximal Policy Optimization for Power Distribution System Restoration

Created by
  • Haebom
Category
Empty

저자

Parya Dolatyabi, Mahdi Khodayar

개요

대규모 정전 후 전력 배전 시스템(PDS) 복구를 위해, 연결된 마이크로그리드 전반에 걸쳐 조율된 복구를 가능하게 하는 이종 에이전트 강화 학습(HARL) 프레임워크를 적용. Heterogeneous-Agent Proximal Policy Optimization (HAPPO)를 통해 구현되었으며, 각 에이전트는 서로 다른 부하, DER 용량 및 스위치 수를 가진 개별 마이크로그리드를 제어하여 실질적인 구조적 이질성을 도입. 분산된 액터 정책은 안정적인 온-정책 업데이트를 위해 중앙 집중식 비평가자를 사용하여 훈련되었으며, 물리 기반의 OpenDSS 환경은 전력 흐름 피드백을 제공하고, 유효하지 않은 액션 마스킹 대신 미분 가능한 페널티 신호를 통해 운영 제한을 적용. IEEE 123-버스 및 IEEE 8500-노드 시스템에서 HAPPO가 DQN, PPO, MAES, MAGDPG, MADQN, Mean-Field RL, 및 QMIX보다 더 빠른 수렴, 더 높은 복구 전력 및 더 매끄러운 멀티 시드 학습을 달성함을 보여줌.

시사점, 한계점

HARL 프레임워크를 통한 마이크로그리드 수준의 이질성 통합은 복잡한 PDS 복구를 위한 확장 가능하고, 안정적이며, 제약 조건을 고려한 솔루션을 제공.
HAPPO는 기존 방법론 대비 더 빠른 수렴, 더 높은 복구 전력 및 매끄러운 멀티 시드 학습을 보임.
OpenDSS 환경은 물리적 제약 조건을 반영하여 현실적인 환경을 시뮬레이션.
제한점은 논문에 명시되지 않음.
👍