Sign In
📝

理解有效提示所需的 LLM 设置

使用大规模语言模型 (LLM) 时,调整某些设置可能会显着改变响应。以下是这些设置的详细信息以及如何有效地使用它们。起初,可能很难理解为什么要显示温度以及顺序是什么,但只需将其视为术语即可。使用chatGPT时,只有一个输入窗口,因此很难理解它是如何工作的,但如果你去Playground,你可以了解GPT-3.5等是如何设置的。
1.
温度:平衡决定论和创造力
描述:温度可以被认为是控制模型可预测性的刻度盘。温度越低,响应就越可预测和一致。较高的温度允许更多的创造力和变量
实际使用:
对于事实性问题,例如具体问题,请使用
较低的温度值以获得简洁准确的答案
对于诗歌等创造性任务,增加温度值可以
鼓励更有想象力的答案
2.
Top_p(核采样):微调响应变异性
描述:Top_p 用于管理反应随温度的变化。 Top_p越低,响应的准确性越高,但响应的多样性越低。 top_p 越高,输出就越多样化
例子 :
为了提高答案的准确性,请保持 Top_p 较低。
增加Top_p来探索不同的想法或风格。
还有Top_k,但通常设置为0并且保持不变。 (如果您对原因感到好奇,请不要阅读 GPT-2 论文...但 Naver Clova 团队有一份文档对此进行了很好的解释。 - 链接
3.
最大长度:调整响应长度
描述:调整“最大长度”以设置响应长度的限制。这将帮助您避免答案过长或偏离主题。通过设置特定数量的令牌,使您的回答简洁且经济高效。
4.
停止序列:端点定义
描述:一个特定的字符串,告诉模型何时停止生成文本。
案例:要将列表限制为 10 个项目,请添加“11”作为停止序列。
5.
频率惩罚:频率惩罚
说明:此设置可防止模型重复相同的单词或短语。
示例:增加频率损失可以增加模型语言的多样性并减少冗余。
6.
存在惩罚:
如何使用:通过平等地惩罚所有重复的标记来鼓励多种答案,无论它们出现的频率如何。
调整设置:
如果您想要更多样、更有创意的文本,请增加。
如果您想要更集中的内容,请降低。
🕵️
参考!一般来说,为了获得清晰的结果,最好只调整温度或 Top_p、频率或存在惩罚之一,而不调整其他惩罚。
💡
变化取决于型号版本
请记住,您的结果可能会根据您所使用的 LLM 版本和模型而有所不同。尝试找到最适合您特定需求的设置总是一个好主意。
🧠
🔈
ⓒ 2023。Haebom,保留所有权利。
经版权所有者许可,可以将其用于商业目的,但需注明来源。
👍