制作一个 AI 模型通常包括以下步骤:
此外,您还可以使用 Generative AI Studio 快速制作原型和自定义生成式 AI 模型,无需代码或代码量少。如果您是数据科学家或 ML 开发人员,想要构建和自动化生成 AI 模型,可以从 Model Garden 入手。Model Garden 可让您发现 Google 的基础和第三方开源模型并与之交互,并具有内置的 MLOps 工具来自动化 ML 管道。Generative AI Studio 支持语言、视觉和语音。对于语言,您可以设计一个提示来执行任务和调整语言模型,比如为与您的业务用例相关的任务设计提示,包括代码生成;通过指定指示模型应如何响应的上下文来创建对话;并调整模型,使其更适合您的用例,然后将其部署到端点以获取预测或在提示设计中对其进行测试。设计提示的一种方法是简单地告诉模型您想要什么,提供一个指令,找出和设计最佳输入文本以获得所需响应的过程称为提示设计,这通常涉及大量实验。
开发具有潜在空间层次结构的堆叠 AI 模型,将反映对每个基本元素的理解或预测能力。创建专门从事诸如医疗保健这样特定领域的 AI 可能比创建跨领域的全能 AI 更容易,我们更需要特定领域的专家 AI。同时,应让 AI 接触到现实世界的互动,避免复制危险的偏见。
02:01您可以使用Generative AI Studio快速制作原型和自定义生成式AI模型,无需代码或代码量少。如果您是数据科学家或ML开发人员,想要构建和自动化生成02:14AI模型,可以从Model Garden入手。Model Garden可让您发现Google的基础和第三方开源模型并与之交互,并具有内置的MLOps工具来自动化ML管道。02:28在本课程中,您将专注于Generative AI Studio。Generative AI Studio支持语言、视觉和语音。随着您学习本课程,该列表会增加。对于语言,你可以设计一个提示来执行任务和调整语言模型。02:43对于视觉,您可以根据提示生成图像并进一步编辑图像。对于语音,您可以从语音生成文本,反之亦然。让我们关注您可以在Generative AI Studio中使用语言做什么。02:57具体来说,您可以:为与您的业务用例相关的任务设计提示,包括代码生成。通过指定指示模型应如何响应的上下文来创建对话。并调整模型,使其更适合您的用例,这样您就可以03:14将其部署到端点以获取预测或在提示设计中对其进行测试。让我们详细介绍这三个功能。首先是提示设计。要开始试验大型语言模型或LLM,请单击“新提示”。03:32在生成式AI的世界中,提示只是您提供给模型的输入文本的一个奇特名称。您可以将所需的输入文本(例如问题和说明)提供给模型。03:42然后,该模型将根据您构建提示的方式提供响应,因此,您获得的答案取决于您提出的问题。找出和设计最佳输入文本以获得所需响应的过程03:53从模型返回称为提示设计,这通常涉及大量实验。让我们从自由形式的提示开始。设计提示的一种方法是简单地告诉模型您想要什么。04:04换句话说,提供一个指令。例如,生成我去约书亚树国家公园野营旅行所需的物品清单。我们将此文本发送给模型,
旁白当你发现大模型的效果并没有你预期想的那么好时,你打算放弃但是你也听到了另一种声音:如果大模型没有你想的那么好,可能是你没有了解他的能力边界。你不想就这么放弃,为了更好的理解大模型,你首先了解了他的创建过程[heading2]1.收集海量数据[content]想象一下,我们要教一个孩子成为一个博学多才的人。我们会怎么做?我们会让他阅读大量的书籍,观看各种纪录片,与不同背景的人交谈等。对于AI模型来说,这个过程就是收集海量的文本数据。例子:研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。[heading2]2.预处理数据[content]在孩子开始学习之前,我们可能会先整理这些资料,确保内容适合他的年龄和学习能力。同样,AI研究人员也需要清理和组织收集到的数据。例子:删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。[heading2]3.设计模型架构[content]就像我们要为孩子设计一个学习计划一样,研究人员需要设计AI模型的"大脑"结构。这通常是一个复杂的神经网络。这里我们就不展开了,我们只需要了解,为了让AI能够很好的学习知识,科学家们设计了一种特定的架构。例子:研究人员可能会使用Transformer架构,这是一种特别擅长处理序列数据(如文本)的神经网络结构。[heading2]4.训练模型[content]就像孩子开始阅读和学习一样,AI模型开始"阅读"我们提供的所有数据。这个过程被称为"训练"。例子:模型会反复阅读数据,尝试预测句子中的下一个词。比如给出"太阳从东方__",模型学会预测"升起"。通过不断重复这个过程,模型逐渐学会理解和生成人类语言。
开发这些具有潜在空间层次结构的堆叠AI模型——复杂数据的简化地图,以帮助AI模型理解模式和关系——将反映对每个基本元素的理解或预测能力。我相信,这最初可能会平行于人类教育和教育范例,但随着时间的推移,它可能会专门发展,以在AI学习中培养新型的专业知识。这些堆叠模型可能会以与人脑皮层类似的方式发展。但是,与人类拥有视觉皮层和运动皮层不同,AI可能会拥有生物皮层和药物设计皮层——在这两种情况下,都是针对特定任务专门设计的神经架构。具有讽刺意味的是,创建专门从事诸如医疗保健这样的特定领域的AI可能比创建更接近HAL 9000的东西——具有跨领域的典型人类水平知识——更容易。实际上,我们更需要特定领域的专家AI,而不是一个能做任何普通人能做的事情的全能AI。我预计不仅会创造一个专家AI,而且会创造许多专家AI,它们在编码、数据和测试方面采用多样化的方法,以便在需要时这些模型可以提供第二个(或第三个、第四个)意见。同时,我们必须将AI从其在线基础上摘下,并将其投入到原子的世界中。我们应该让我们最熟练的人类专家配备可穿戴设备,以收集微妙的、现实世界的互动,供AI学习,就像我们即将崭露头角的学术和行业明星一样。解决健康和医学领域最复杂和不确定的问题在位元的世界中根本不存在。必须让这些专家AI接触到顶级从业人员的多样化视角,以避免复制危险的偏见。但AI的黑盒性远不如大众想象中的那么强;我们今天依赖的人类决策,正如我以前[指出的](https://www.nytimes.com/2018/01/25/opinion/artificial-intelligence-black-box.html),可以说更加不透明。我们不能因为对传播人类偏见的恐惧而限制我们探索AI如何帮助我们民主化我们的人类专家知识的意愿,而这些专家是不幸地无法扩展的。