本文提出了一种路由技术,该技术能够在众多大规模语言模型 (LLM) 中高效地为特定任务选择最优的 LLM。为了解决现有方法中用户查询与 LLM 特征之间缺乏关联的问题,我们提出了一个名为 RadialRouter 的全新框架。RadialRouter 采用基于轻量级 Transformer 的主干网络,并采用名为 RadialFormer 的径向架构来阐明查询与 LLM 的关系,并根据 RadialFormer 的最终状态选择最优 LLM。我们通过实现一个结合 Kullback-Leibler 散度和查询-查询对比损失的目标函数来增强鲁棒性。RouterBench 实验表明,我们的方法在平衡场景下比现有路由方法性能提升 9.2%,在成本优先场景下比现有路由方法性能提升 5.8%,这证明了其通过适应性能成本权衡和动态 LLM 池的实用性。