如果被要求计算 17 乘以 28,我们普通人可能无法立即得到答案,但可以通过时间来计算出来。
同样,大模型被要求立刻做出判断时,会出现较多的推理错误,而不是花时间“思考”答案。如果在得出答案之前,要求大模型进行一连串的推理过程,可以帮助它更可靠地提供正确答案。
OpenAI 官方提供了三种策略,我们一起来看看。
策略一:在匆忙得出结论前,指导模型自行找出解决方案
- 适用人群:熟练者
- 难度:⭐️⭐️
解读
我们向大模型提出一些 复杂的计算问题 时,可以让大模型先进行深入的思考和推理得出它的答案,再对比我们准备的的答案,这是一种提高此类场景正确性的小技巧。
实践
策略二:使用内心独白或一系列查询来隐藏模型的推理过程
- 适用人群:熟练者、开发者
- 难度:⭐️⭐️⭐️
解读
上图所示, 官方的解释已经比较明朗, 当我们不希望大模型将推理过程展示给用户时,可以使用这条策略。
比如学生的辅导程序中,我们可能 希望鼓励学生自己找出答案,但是大模型在推理时,可能会向学生透露答案。
我们通过提示词的设定,隐藏推理过程,只提供给用户部分内容,这种方式称为“内心独白”。
实践
策略三:询问模型是否在前几轮查询中遗漏了任何内容
- 适用人群:熟练者、开发者
- 难度:⭐️⭐️⭐️
解读
大模型在处理大量文本和大文件的内容时,可能会造成一些中断。
那每当我们遇到这种场景时,可以通过询问大模型在之前的过程中是否遗漏了某些内容,从而可以提高答案的准确性和完整性。
实践
总结
在本章的三个策略中,我们通过案例展示了如何让大模型多“思考”一会,从而得到更加准确的回答。