Sign In
🔈

提示词基础

提示是一种与大规模语言模型 (LLM) 有效沟通的技术。提示的结构(指令、上下文,有时还包括示例)的编写方式会极大影响最终结果的质量。

基础提示

即使是简单的提示也能很强大。我们来看一个例子:
基础提示示例
Propmt : 고양이는
Output : 고양이는 사랑스럽고 독특한 동물 중 하나로, 수많은 사람들에게 사랑을 받고 있습니다.
这个例子展示了模型如何根据所给提示继续思考。但是,这样的简单提示往往无法精确匹配你预期的任务,所以需要强调上下文和明确指令的重要性。
Propmt : 문장을 완성하세요: 고양이는
Output : 고양이는 우아한 모습과 호기심 많은 성격으로 많은 사람들의 마음을 사로잡는 동물입니다. 이들은 그 특유의 미모와 유연한 몸뚱아리로 우리를 매료시키며, 독립적인 성격과 함께 때로는 애정을 드러내어 주인들과 강한 유대감을 형성합니다. 또한 고양이는 수많은 역사적인 순간과 신화에 등장하여 그들의 중요성을 상징적으로 보여주었으며, 현대에는 애완 동물로서 우리 가정에 행복과 안정을 가져다 주고 있습니다. 고양이는 집안을 깨끗하게 유지하고 스트레스를 줄여주는 등 우리의 삶에 긍정적인 영향을 끊임없이 미치며, 정말로 특별한 존재입니다.
在这里,让模型完成句子,可以得到更连贯、更相关的输出。这些改进很好地体现了提示工程的本质——设计能引导模型完成特定任务的提示。
如果你亲自尝试刚才我展示的“猫”这个例子,绝对不会得到完全相同的答案。通常答案会比较接近或类似,但也有时会出现很奇特的回答。通过上面的例子,你可以看到,同一个问题,不同的提问方式会导致完全不同的结果。
如果只输入“猫是”,LLM会以此为开头写一个以“猫是~”开头的句子。而如果你输入“请完成句子:猫是”,得到的答案会更长、更详细。从模型如何理解每个提问,可以发现这个不同。
给出语言模型识别出的疑问意图时:
[질문의도]: 사용자의 질문을 이해하고 고양이에 관한 정보를 제공합니다.
完成句子:如果猫提供了,语言模型将问题意图理解为:
[질문의도]: 사용자가 주어진 문장을 완성하여 고양이에 대한 정보를 요청한 것으로 추정됩니다.
对人类来说相近的概念性提示,AI却会以不同意图解读并生成答案。这一点正是提示设计至关重要的核心。即便你对同一件事感兴趣,也想让AI完成,AI本身能力足够,但如果使用方法不当,还是无法得到预期效果。本指南的最大目标就是帮你解决这个问题。
📝
🧩
ⓒ 2023. Haebom,版权所有。
经版权所有者许可,可以将其用于商业目的,但需注明来源。