본 논문은 O-RAN(Open Radio Access Network) 환경에서의 동적 자원 할당 및 슬라이싱을 위한 새로운 다중 에이전트 강화 학습(MARL) 프레임워크인 ORAN-GUIDE를 제안합니다. 기존 DRL(Deep Reinforcement Learning)의 원시 데이터 처리 어려움을 해결하기 위해, O-RAN 제어 및 구성 데이터로 사전 훈련된 도메인 특화 언어 모델 ORANSight를 활용하여 구조화된 컨텍스트 인식 프롬프트를 생성합니다. 이 프롬프트는 학습 가능한 토큰과 결합되어 고정된 GPT 기반 인코더에 입력되고, DRL 에이전트를 위한 고차원 의미론적 표현을 출력합니다. 이는 무선 시스템의 기술적 의사 결정을 위해 맞춤 설계된 RAG(Retrieval-Augmented Generation) 스타일 파이프라인을 채택한 것입니다. 실험 결과, ORAN-GUIDE는 표준 MARL 및 단일 LLM 기준 모델에 비해 샘플 효율성, 정책 수렴 및 성능 일반화를 향상시키는 것으로 나타났습니다.