最近很多人都在说GPT-4的答案质量严重下降,OpenAI逼不得已,对此专门出了《GPT最佳实践》。来自OpenAI的开发者,将教你如何正确的使用Prompt提示词,从ChatGPT获取到高质量答案。之前在星球分享过不少Prompt工程的学习资料,这份指南给了挺多的Prompt示例,可作为补充学习。GPT-4近期的答案质量是否下降,这个不好下定论,但是这份指南写的真挺不错,建议大家都去看一下。
查看地址:OpenAI Prompt Engineering Guide ↗
按照OpenAI的说法,想掌握Prompt的应用,核心其实就这6点:
提供清晰的描述
GPT模型就像是一个需要明确指示的机器人。如果你希望它的回答更简短,就要求它给出简短的回答。如果你希望它的回答更专业,就要求它以专家的角度来回答。如果你不喜欢它的回答格式,就示范你希望看到的格式。你越明确地告诉它你想要的东西,它就越有可能给你你想要的答案。
提供参考文本
GPT模型有时会创造出假的答案,特别是在被问到一些深奥的主题或需要引用和网址的时候。就像学生在考试时如果有笔记会做得更好一样,给GPT模型提供参考文本可以帮助它给出更少的假答案。
将复杂任务拆分为多个子任务
就像在软件工程中,我们会将一个复杂的系统分解成一组模块化的组件一样,对GPT模型提交的任务也是如此。复杂的任务比简单的任务更容易出错。此外,复杂的任务往往可以被重新定义为一个简单任务的工作流程,其中早期任务的输出被用来构建后续任务的输入。
给GPT提供足够的时间思考
如果问你17乘以28的答案,你可能不会立刻知道答案,但是给你时间,你可以算出来。同样地,GPT模型在尝试立即回答问题时,会犯更多的错误,而不是花时间去找出答案。在给出答案之前要求一个推理链可以帮助GPT模型更可靠地推理出正确的答案。
使用外部工具
通过将其他工具的输出喂给GPT模型,可以弥补GPT模型的弱点。例如,一个文本检索系统可以告诉GPT模型有关相关文件的信息,一个代码执行引擎可以帮助GPT模型进行数学运算和运行代码。如果一个任务可以由一个工具更可靠或更有效地完成,而不是由GPT模型完成,那么将其卸载以获得最佳效果。
系统地测试变化
如果你知道怎么评估性能,那么想提高性能就容易多了。在某些情况下,对提示的修改可能会在几个孤立的例子上提高性能,但在更具代表性的例子集上导致整体性能下降。