Towards Practical Operation of Deep Reinforcement Learning Agents in Real-World Network Management at Open RAN Edges
Created by
Haebom
作者
Haiyuan Li, Hari Madhukumar, Peizheng Li, Yuelin Liu, Yiran Teng, Yulei Wu, Ning Wang, Shuangyi Yan, Dimitra Simeonidou
概要
本論文は、高度なネットワークの接続性、信頼性、低遅延時間、および運用効率の増加するニーズを満たすための強力なソリューションで、浮上した深層強化学習(DRL)の実際の展開に焦点を当てています。 ETSI MECとOpen RANを統合するオーケストレーションフレームワークを提示し、さまざまな時間スケールでDRLベースの戦略を円滑に採用し、エージェントのライフサイクル管理を強化します。実際の展開を阻害する3つの主要な課題(予測不可能またはバーストトラフィックによる非同期要求、異機種トポロジ、および変化するサービス要件への適応性と一般化、ライブオペレーティング環境でのナビゲーションによる長期の収束とサービスの中断)を確認し、非同期トラフィック処理のための高度な時系列統合、異機種シナリオを支援するためのマルチ収束時間とサービスの中断を減らすための遷移学習によるシミュレーションベースの展開という3つの解決策を提案します。最後に、都市全体のテストインフラストラクチャでMEC-O-RANアーキテクチャの実現可能性を検証し、2つの実際のユースケースで3つの特定された課題を示し、提案されたソリューションの効果を実証します。
Takeaways、Limitations
•
Takeaways:
◦
ETSI MECとOpen RANを統合したオーケストレーションフレームワークにより、DRLを実際のネットワーク管理に効果的に適用できる方策を提示。