直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

FineTuning

回答

Fine-tuning(微调)是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构,如在自然语言处理中学会基本语法和单词语义,在图像识别中学会识别基本形状和纹理。然后在特定任务数据上继续训练该模型,使其适应新的任务。

以下是两个例子帮助理解:

  • 情感分类:先使用大量语料库预训练模型,再用标注过的电影评论(部分积极,部分消极)继续训练,使其学会判断评论情感。
  • 图像分类:先使用大量图片(如 ImageNet 数据集)预训练模型,再用标注过的猫和狗的图片继续训练,使其学会区分猫和狗。

微调的优点是能利用预训练模型学到的知识,提高在特定任务上的性能。它可以为应用程序定制模型,带来比即时设计更高质量的结果、能训练更多例子、节省 Token、降低延迟请求等好处。

微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。

在高层次上,微调涉及以下步骤:

  1. 准备和上传训练数据。
  2. 训练新的微调模型。
  3. 使用微调模型。

微调还涉及超参数的配置,默认超参数适用于一系列用例,但调整超参数通常能产生更高质量输出的模型。需要配置的超参数包括:

  • model:要微调的基本模型的名称,可选择“ada”“babbage”“curie”或“davinci”之一。
  • n_epochs:默认为 4,指训练模型的时期数,一个纪元是训练数据集的一个完整周期。
  • batch_size:默认为训练集中示例数量的 0.2%,上限为 256,是用于训练单个正向和反向传递的训练示例数。
  • learning_rate_multiplier:默认为 0.05、0.1 或 0.2,取决于 final batch_size,微调学习率是用于预训练的原始学习率乘以该乘数。
  • compute_classification_metrics:默认为假,若为 True,为对分类任务进行微调,在每个 epoch 结束时在验证集上计算特定于分类的指标(准确性、F-1 分数等)。

要配置这些额外的超参数,可通过 OpenAI CLI 上的命令行标志传递。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

什么是Fine-tuning

[title]什么是Fine-tuning"Fine-tuning",也叫做微调,是一种迁移学习技术,常用于深度学习中。这种方法的基本思路是:首先,我们有一个预训练的模型,这个模型已经在大量的数据上训练过,已经学会了一些基本的模式和结构(比如在自然语言处理任务中,预训练模型可能已经学会了基本的语法和单词的语义)。然后,我们再在特定的任务数据上继续训练这个模型,使其适应新的任务,这就是所谓的"fine-tuning"。下面是两个例子,希望能帮助你更好地理解这个概念:例子1:情感分类假设我们正在构建一个模型,用于判断电影评论是积极的还是消极的。我们可以先使用大量的语料库(比如维基百科)预训练一个模型,使其学会基本的语法和单词的语义。然后,我们收集一些标注过的电影评论,其中一部分评论是积极的,一部分评论是消极的。我们再在这些评论上继续训练模型,使其学会判断评论的情感。这就是一个fine-tuning的过程。例子2:图像分类假设我们正在构建一个模型,用于识别猫和狗的图片。我们可以先使用大量的图片(比如ImageNet数据集)预训练一个模型,使其学会识别图片中的基本形状和纹理。然后,我们收集一些标注过的图片,其中一部分图片是猫,一部分图片是狗。我们再在这些图片上继续训练模型,使其学会区分猫和狗。这也是一个fine-tuning的过程。这两个例子都展示了fine-tuning的基本步骤:首先在大量的数据上预训练一个模型,然后在特定的任务数据上继续训练模型。这种方法的优点是可以利用预训练模型学到的知识,提高模型在特定任务上的性能。

微调(Fine-tuning)

通过提供以下内容,微调可让您从API提供的模型中获得更多收益:1.比即时设计更高质量的结果2.能够训练比提示中更多的例子3.由于更短的提示而节省了Token4.更低的延迟请求GPT-3已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成。这通常称为“小样本学习”。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及以下步骤:1.准备和上传训练数据2.训练新的微调模型3.使用您的微调模型[heading2]哪些模型可以微调?[content]微调目前仅适用于以下基础模型:davinci、curie、babbage和ada。这些是原始模型,在训练后没有任何说明(例如text-davinci-003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。[heading2]安装[content]我们建议使用我们的OpenAI命令行界面(CLI)。要安装这个,运行(以下说明适用于0.9.4及更高版本。此外,OpenAI CLI需要python 3。)OPENAI_API_KEY通过将以下行添加到您的shell初始化脚本(例如.bashrc、zshrc等)或在微调命令之前的命令行中运行它来设置您的环境变量:

微调(Fine-tuning)

我们选择了适用于一系列用例的默认超参数。唯一需要的参数是训练文件。也就是说,调整用于微调的超参数通常可以产生产生更高质量输出的模型。特别是,您可能需要配置以下内容:model:要微调的基本模型的名称。您可以选择“ada”、“babbage”、“curie”或“davinci”之一。要了解有关这些模型的更多信息,请参阅[模型](https://ywh1bkansf.feishu.cn/wiki/R70MwasSpik2tgkCr7dc9eTmn0o)文档。n_epochs-默认为4。训练模型的时期数。一个纪元指的是训练数据集的一个完整周期。batch_size-默认为训练集中示例数量的0.2%,上限为256。批量大小是用于训练单个正向和反向传递的训练示例数。总的来说,我们发现更大的批次大小往往更适用于更大的数据集。learning_rate_multiplier-默认为0.05、0.1或0.2,具体取决于final batch_size。微调学习率是用于预训练的原始学习率乘以该乘数。我们建议使用0.02到0.2范围内的值进行试验,以查看产生最佳结果的值。根据经验,我们发现较大的学习率通常在较大的批量大小下表现更好。compute_classification_metrics-默认为假。如果为True,为了对分类任务进行微调,在每个epoch结束时在验证集上计算特定于分类的指标(准确性、F-1分数等)。要配置这些额外的超参数,请通过OpenAI CLI上的命令行标志传递它们,例如: