对于需要多种语义差异响应的应用而言,大规模语言模型的多样性解码至关重要,但现有方法主要实现词汇多样性而非语义多样性。这种局限性严重制约了最佳策略、基于群组的强化学习和数据合成。语义引导多样性解码 (SemDiD) 直接在嵌入空间中运行,并通过三种互补机制平衡质量和多样性:正交方向引导、动态组间排斥和概率评估以消除位置偏差。SemDiD 使用自适应增益函数和约束优化来平衡这些相互冲突的目标,确保质量阈值和最大语义差异化。实验结果表明,SemDiD 的性能始终优于现有方法,在各种任务中将最佳策略覆盖率提高了 1.4% 至 5.2%,并将 RLHF 训练收敛速度加快了 15%,同时将准确率提高了高达 2.1%。