想要得到你想要的答案,先得把你的问题描述清楚和明白,学会 Prompt,AI你就掌握一大半了。
Prompt 起源于研究者们为了下游任务设计出来的一种输入形式,它的作用是能够帮助预训练模型“回忆”起自己在预训练时“学习”到的东西,因此又可以叫它提示词。而对于大语言模型来说,Prompt 就是用户的输入,它可以是一个词语,一句简单的语句,一段较长的文本,也可以是一组指令,这取决于用户的具体需求。
大语言模型生成内容时,会先处理 Prompt,再根据对其的理解进行输出。这就不得不浅提一下大语言模型的工作原理,它是根据我们的输入上文,来预测下一个词出现的概率,逐字生成出下文。
所以,输入 Prompt 的不同会直接影响输出结果的质量,就是几个字的差距,生成的内容也可能是两码事。
网上有很多优秀的 Prompt 示例,可以用来参考,参考的多了自然就学会自己去加工 Prompt。
为了方便记忆,我们也可以去套用一套公式:Prompt=任务+内容主体+需要的细节(可选)+答案的形式(可选)
而一个优秀的 Prompt,除了需要做加法以外,适当的还需要做一些减法和变换,避免 Prompt 引导大语言模型生成出一些不合理或不准确的内容。
提问题可以得到回应,但提需求才能具体问题具体分析。比如“汽车发动机熄火怎么办”这个 Prompt 只会得到一般性的回答,但“请提供关于发动机熄火的常见原因和解决办法”就会得到具体的原因和对应的解决办法,有助于更好的解决发动机熄火的问题。
总之,一个优秀的 Prompt 需要通过更多的细节补充来增进大语言模型对其的理解,也需要精简来明确需求,才能确保得到符合我们预期的内容。
抓紧把 Prompt 加工学起来,用好大语言模型,拥抱大模型时代!