본 논문은 오픈랜(O-RAN) 분야에 특화된 기초 대규모 언어 모델(LLM)인 ORANSight-2.0을 제시한다. 기존의 범용 LLM이 O-RAN의 고유한 과제와 기술적 복잡성을 해결하는 데 어려움을 겪는다는 점을 고려하여, 5개의 오픈소스 LLM 프레임워크에서 가져온 18개의 LLM을 10억에서 700억 파라미터 규모로 미세 조정하여 개발되었다. 특히, RANSTRUCT라는 새로운 검색 증강 생성(RAG) 기반 지시 조정 프레임워크를 사용하여 고품질 지시 조정 데이터셋을 생성하고, QLoRA를 통해 미세 조정을 수행한다. srsRANBench라는 새로운 벤치마크와 기존의 ORANBench13K를 활용하여 ORANSight-2.0의 성능을 평가한 결과, ChatGPT-4o 및 Gemini와 같은 범용 및 독점 모델보다 ORANBench에서 5.421%, srsRANBench에서 18.465% 향상된 성능을 보이며, 낮은 계산 및 에너지 비용을 유지하는 것을 확인하였다. 또한, RAG 증강 변형 모델의 에너지 특성을 평가하여 훈련, 표준 추론 및 RAG 증강 추론 비용을 제시한다.