본 논문은 다양한 대규모 언어 모델(LLM) 중 특정 작업에 최적의 LLM을 효율적으로 선택하는 라우팅 기법을 제시합니다. 기존 방법들의 한계점인 사용자 질의와 LLM 특성 간의 연관성 부족을 해결하기 위해, RadialRouter라는 새로운 프레임워크를 제안합니다. RadialRouter는 RadialFormer라는 방사형 구조의 경량 Transformer 기반 백본을 사용하여 질의-LLM 관계를 명확히 하고, RadialFormer의 최종 상태를 기반으로 최적의 LLM을 선택합니다. Kullback-Leibler divergence와 질의-질의 대조 손실을 결합한 목적 함수를 통해 강건성을 향상시켰습니다. RouterBench 실험 결과, 기존 라우팅 방법들보다 Balance 시나리오에서 9.2%, Cost First 시나리오에서 5.8% 향상된 성능을 보였으며, 성능-비용 트레이드오프와 동적 LLM 풀에 대한 적응력을 통해 실용적인 적용 가능성을 입증했습니다.