本論文は、動的環境でさまざまなサービスニーズを効率的に管理する必要がある現代の無線ネットワークの問題を扱います。既存の深層強化学習(DRL)は、散発的で変化するフィードバックによって最適な意思決定が難しいという限界を持っている。この論文は、非定型ネットワークフィードバックを意味のある潜在的な表現に構造化し、強化学習エージェントがパターンをより効果的に認識するのを助ける大規模言語モデル(LLM)を利用します。特に、O-RANスライス環境では、LLMがSNR、電力レベル、スループットなどの概念を意味的にクラスタリングして、解釈可能な状態表現を提供することを示しています。この目的のために、本論文は、学習可能なプロンプトをLLM拡張DRLフレームワークに統合するコンテキストベースの適応方法を提示します。モデル全体の微調整に頼るのではなく、ネットワーク状況に動的に適応するタスク固有のプロンプトを介して状態表現を改善します。 O-RAN知識で訓練されたLLMであるORANSightを活用して、プロンプト強化マルチエージェント強化学習(PA-MRL)フレームワークを開発する。学習可能なプロンプトは、意味クラスタリングと強化学習目標の両方を最適化し、強化学習エージェントがより少ない反復でより高い報酬を達成し、より効率的に適応できるようにします。実験結果は,提案した方法が収束速度を高め,他のベースラインより性能が優れていることを示した。