通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
更系列文章合集请访问:[蓝衣剑客-AIGC思维火花](https://waytoagi.feishu.cn/wiki/IYtowrzONiysdTkeA5QcEraxntc)[heading1]一、前言[content]各位,时间飞逝,转眼间我们已经迎来了学习的第三阶段。在这一阶段,我们将深入探讨一些最新的技术发展,包括但不限于提示词工程和智能体的进一步教学。这些内容无疑将为我们的认知带来新的深度。现在,让我们直接进入主题,开始我们的探索之旅吧![heading1]二、Part3课程导览[heading1]三、上节回顾[heading1]四、进阶技术——CCoT[content]首先,让我们来了解第一个提示词进阶技术——CCoT。CCoT通过正反力矩的机制,指导模型识别正确与错误。这种方法简洁而直观,非常容易理解。[heading1]五、进阶技术——PoT[content]在日常使用中,我们会发现一个非常有意思的问题:大模型在解决数学问题时可能不够可靠(甚至连简单的加法都会算错)。那么如果有数学运算的任务,大模型岂不就是不行了?不要着急,接下来我们就来讨论下数值增强类的提示词技术。PoT技术,实际上是思维链技术的一个衍生。PoT特别适用于数值推理任务,它会引导模型生成一系列代码,模型再通过代码解释器工具进行最后运算。通过这种引导模型生成代码再进行执行的手段,可以显著提升模型在数学问题求解上的表现。PoT作为CoT的衍生技术,也遵循了零样本和少样本的学习范式。零样本PoT与CoT在方法上极为相似,它们都不需要大量的样本即可进行有效的推理。同样,少样本PoT也采用了类似的策略,通过较少的样本来优化模型的表现。
现在,让我们来讨论另一种称为ToT的技术。ToT实际上是CoT的一个变种,这种技术的核心是通过构建一个树状结构来组织思考过程。在ToT中,模型需要在每个树的层级上进行选择,以寻找最优的答案。最终,模型会综合这些选择,输出一个经过深思熟虑的结果。使用ToT时,我们在提示词层面上用语言来构建这棵树,通过不断对话引导模型选择最优的路径,以得到最佳的答案。ToT的应用可以显著提升模型的推理能力,尤其是在面对复杂问题时,它能够帮助模型避免陷入局部最优解,而是寻找到全局最优解。[heading1]七、进阶技术——后退一步[content]接下来,我们将介绍另一种高级的提示词技术,名为"后退一步"。这项技术要求模型在处理具体指令之前,先进行一次抽象化的思考。这种技术要求模型从具体的指令内容中抽离出来,先抽象出一个更高层次的概念。在这个过程中,模型需要识别并抽取出相关的背景信息,然后将这些背景信息与具体的任务结合起来,一并提供给模型进行处理。通过这种方式,模型能够在更广阔的背景下理解任务,从而在执行时获得更全面、更深入的视角,进而提高执行效果。
Alex Albert:我觉得主要是很多人都没有理解什么是提示词。很多人看到一个输入框时,会把它当成一个谷歌搜索框,输入几个关键词。人们总是想在提示中偷懒,用一些简单的捷径,以为一两行文字就能起到很大的作用。David Hershey:是的。在写提示词的时候不能依赖直觉、不能偷懒。Amanda Askell:偷懒就会导致模型在很多边缘情况上犯错。比如刚刚评价表格的数据集里混进了一张山羊的图片,模型就不知道该怎么办了,这甚至不是一张图表。一张山羊的图片作为图表有多好?而如果你补充一下,比如「如果发生一些奇怪的事情,你真的不确定该怎么办,就输出:不确定」。Zack Witten:而且你也通过这样做提高了你的数据质量,因为你找到了所有搞砸的例子。