当喂给模型的数据样本量太少时,可以考虑以下方法:
需要注意的是,这些方法虽然能在一定程度上缓解样本量少的问题,但对于推理、计算等问题,可能需要进一步使用其他方法。
如今,经过大量数据训练并调整指令的LLM能够执行零样本任务。我们在前一节中尝试了一些零样本示例。以下是我们使用的一个示例:提示:输出:请注意,在上面的提示中,我们没有向模型提供任何示例——这就是零样本能力的作用。指令调整已被证明可以改善零样本学习[Wei等人(2022)(opens in a new tab)](https://arxiv.org/pdf/2109.01652.pdf)。指令调整本质上是在通过指令描述的数据集上微调模型的概念。此外,[RLHF(opens in a new tab)](https://arxiv.org/abs/1706.03741)(来自人类反馈的强化学习)已被采用以扩展指令调整,其中模型被调整以更好地适应人类偏好。这一最新发展推动了像ChatGPT这样的模型。我们将在接下来的章节中讨论所有这些方法和方法。当零样本不起作用时,建议在提示中提供演示或示例,这就引出了少样本提示。在下一节中,我们将演示少样本提示。
提供适用于所有示例的一般性指示通常比通过示例演示任务的所有排列更有效,但在某些情况下,提供示例可能更容易。例如,如果你希望模型复制一种特定的响应用户查询的风格,这种风格难以明确描述。这被称为“少样本”提示。|系统|以一致的风格回答。||-|-||用户|教我关于耐心。||助手|开辟最深山谷的河流从温和的泉水流出;最伟大的交响乐源于一个音符;最复杂的挂毯始于一根单独的线。||用户|教我认识海洋。|[heading3]战术:指定输出的所需长度[content]你可以要求模型产生给定目标长度的输出。目标输出长度可以用词数、句子数、段落数、项目符号点数等来指定。然而请注意,指导模型生成特定数量的单词的效果并不精确。模型能更可靠地生成具有特定数量的段落或项目符号点的输出。|用户|用大约50个单词总结由三重引号分隔的文本。"""在此插入文本"""||-|-||用户|在2个段落中总结由三重引号分隔的文本。"""在此插入文本"""||用户|在3个要点中总结由三重引号分隔的文本。"""在此插入文本"""|
是指在机器学习和人工智能领域中,当我们只有很少数量的标记样本可用于训练模型时,通过巧妙设计任务描述、提供相关背景知识或利用预训练模型等方法,引导模型在有限样本条件下更好地理解和解决任务的技术和策略。虽然不是专门用于固定格式的,但是对格式有很好的限定和约束作用!在[提示工程指南](https://www.promptingguide.ai/zh/techniques/fewshot)中这篇文章中提到:但是也存在一定的缺陷,推理问题响应稳定性差!结论:由此可以看出,少样本提示对于格式限定非常有帮助,能够提高输出格式的稳定性!但是对于推理、计算等问题,需要进一步的使用其他方法。细节的格式限定:字数限制:限制ChatGPT输出的文本长度,以避免输出过长或不合适的回复。可以设置最大字符数或最大字数来控制输出长度。在各种文案、博客、文章等中常用到,比如:输出内容在XX字数内。形式限定:限定输出内容的形式,比如,请给我以回复领导邮件的形式输出,请给我工作周报的形式输出等等,这里一般会和任务的要求有一定的重叠,可以省略,也可以着重强调以增强格式输出的稳定性!细节限制:比如,我希望给出的文章的标题使用斜体;对于我投喂的语料的使用,使用引用格式;对于一些供给读者使用的文字,使用代码格式;对于一些数据对比,使用表格展示;对于一些流程化的步骤,使用流程表的格式(这里可以搭配GPT4的插件)。这样的格式优化可以使文本更加清晰易读,并且在视觉上更具结构性。