直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

最简单易懂的transformer图示

回答

为了方便理解,我会尽量使用非技术术语进行解释,并配上一些图表。

Transformer 是 Google Research 于 2017 年提出的一种神经网络架构,它已经被证明了在自然语言处理 (NLP) 任务中的有效性,并被广泛应用于机器翻译、文本摘要、问答等领域。

Transformer 的基本原理是通过 注意力机制 (Attention Mechanism) 来学习词与词之间的依赖关系,从而更好地理解句子的语义。

以下是一张简化的 Transformer 架构图:

1_MWUMFJHihfIKisxJmQAr3w.webp

图中主要包含以下几个部分:

  • 编码器 (Encoder): 编码器由多个相同的编码器层组成,每个编码器层又由两个子层组成:
    • 自注意力层 (Self-Attention Layer): 自注意力层负责学习词与词之间的依赖关系。
    • 前馈神经网络层 (Feed Forward Network Layer): 前馈神经网络层负责对每个词进行非线性变换。
  • 解码器 (Decoder): 解码器由多个相同的解码器层组成,每个解码器层又由三个子层组成:
    • 自注意力层 (Self-Attention Layer): 解码器的自注意力层负责学习词与词之间的依赖关系,以及词与编码器输出之间的依赖关系。
    • 编码器-解码器注意力层 (Encoder-Decoder Attention Layer): 编码器-解码器注意力层负责将编码器输出的信息传递给解码器。
    • 前馈神经网络层 (Feed Forward Network Layer): 解码器的前馈神经网络层负责对每个词进行非线性变换。
  • 位置编码 (Positional Encoding): 由于 Transformer 模型没有使用循环神经网络 (RNN),因此需要显式地将位置信息编码到输入序列中。

Transformer 的工作流程如下:

  1. 将输入序列转换为词嵌入表示。
  2. 编码器对输入序列进行编码,并输出编码器输出序列。
  3. 解码器以自注意力机制为基础,根据编码器输出序列和之前生成的输出词,预测下一个词。
  4. 重复步骤 3,直到生成完整的输出序列。

Transformer 的注意力机制是其核心思想,它使 Transformer 能够捕获长距离依赖关系,从而更好地理解句子的语义。

以下是一张简化的注意力机制示意图:

image (4).png

图中主要包含以下几个部分:

  • 查询 (Query): 查询代表要计算注意力的词。
  • 键 (Key): 键代表所有候选词。
  • 值 (Value): 值代表所有候选词的语义信息。
  • 注意力分数 (Attention Score): 注意力分数代表查询词与每个候选词之间的相关程度。
  • 加权值 (Weighted Value): 加权值代表每个候选词对查询词的贡献程度。

注意力机制的计算过程如下:

  1. 对查询、键和值进行缩放变换。
  2. 计算查询与每个键的点积。
  3. 对点积进行 softmax 运算,得到注意力分数。
  4. 将注意力分数与值相乘,得到加权值。
  5. 将所有加权值求和,得到最终的输出。

Transformer 模型的出现是 NLP 领域的一个重大突破,它使 NLP 任务的性能得到了大幅提升。Transformer 模型及其衍生模型已经被广泛应用于各种 NLP 任务,并取得了 state-of-the-art 的结果。

希望以上解释能够帮助您理解 Transformer 的基本原理。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

其他人在问
transformer原理
Transformer 模型的原理主要包括以下几个方面: 1. 自注意力机制:能够同时考虑输入序列中所有位置的信息,根据输入序列中不同位置的重要程度,动态地分配注意力权重,从而更好地捕捉序列中的关系和依赖。 2. 位置编码:由于自注意力机制不考虑输入序列的位置信息,为了使模型能够区分不同位置的词语,引入了位置编码。位置编码是一种特殊的向量,与输入词向量相加,用于表示词语在序列中的位置信息,通常基于正弦和余弦函数计算得到。 3. 多头注意力机制:通过引入多头注意力机制,可以并行地学习多个注意力表示,从不同的子空间中学习不同的特征表示。每个注意力头都是通过将输入序列线性变换成查询、键和值向量,并计算注意力分数,然后将多个头的输出拼接在一起得到最终的注意力表示。 4. 残差连接和层归一化:在每个子层(SelfAttention 层和前馈神经网络层)的输入和输出之间都引入了残差连接,并对输出进行层归一化。残差连接可以缓解梯度消失和梯度爆炸问题,层归一化可以加速训练过程,并提高模型的泛化能力。 5. 位置感知前馈网络:在每个注意力子层之后,包含了位置感知前馈网络,它是一个两层的全连接前馈神经网络,用于对注意力表示进行非线性转换和映射。位置感知前馈网络在每个位置独立地进行计算,提高了模型的并行性和计算效率。 通过以上关键点,Transformer 模型能够有效地捕捉输入序列中的长距离依赖关系,并在各种序列到序列的任务中取得了优异的性能。
2024-08-09
transformer 如何用于asr 识别问题
Transformer模型在自动语音识别(ASR)系统中发挥着重要作用。ASR系统的目标是将人类的语音转换成相应的文本表示。以下是Transformer模型在ASR系统中的一些关键应用: 1. 声学模型:在传统的ASR系统中,声学模型用于将声学信号(语音)映射到声学单元(如音素或字母)。Transformer模型,特别是基于注意力机制的架构,可以有效地捕捉时间序列数据中的长距离依赖关系,这对于理解语音信号非常重要。 2. 端到端识别:Transformer模型可以实现端到端的ASR,这意味着它可以直接将音频输入转换为文本输出,而不需要传统的声学模型和语言模型分离的架构。这种端到端的方法简化了训练过程,并且可以提高识别的准确性。 3. 注意力机制:Transformer模型的核心是自注意力机制,它允许模型在预测文本的每个字符时考虑不同时间步长的语音输入。这有助于模型更好地理解语音中的上下文信息。 4. 并行处理:与循环神经网络(RNN)相比,Transformer模型的注意力机制可以高效地并行处理,这对于加速训练和推理过程非常有利。 5. CTC(Connectionist Temporal Classification):在某些实现中,Transformer模型与CTC损失函数结合使用。CTC允许模型在没有明确时间对齐的情况下,从语音信号中直接输出文本序列。 6. 语言模型集成:Transformer模型可以与预训练的语言模型集成,以提高对语言结构和语法的理解,从而提高ASR系统的整体性能。 7. 多语言和方言识别:由于Transformer模型的灵活性和强大的表示能力,它可以被用来构建多语言或方言的ASR系统。 8. 鲁棒性:Transformer模型可以通过训练数据的多样化来提高ASR系统在不同口音、背景噪音和录音条件下的鲁棒性。 9. 实时识别:尽管Transformer模型通常比较复杂,但通过模型优化和压缩技术,它们可以被部署在实时ASR系统中。 10. 预训练和微调:可以利用大量的语音数据对Transformer模型进行预训练,然后在特定领域的数据上进行微调,以提高特定用例的性能。 在实际应用中,构建一个高效的ASR系统可能需要结合多种技术,包括传统的声学处理技术、深度学习模型以及优化算法。Transformer模型由于其在处理序列数据方面的优势,已成为当前ASR领域的研究热点之一。
2024-04-22
Transformer模型的原理是
Transformer 模型是一种基于注意力机制(Attention Mechanism)的深度学习模型,由 Vaswani 等人在论文《Attention is All You Need》中提出,用于处理序列到序列(sequencetosequence)的任务,如机器翻译、文本摘要等。Transformer 模型的原理主要包括以下几个关键点: 1. 自注意力机制(SelfAttention Mechanism): Transformer 模型使用了自注意力机制,能够同时考虑输入序列中所有位置的信息,而不是像循环神经网络(RNN)或卷积神经网络(CNN)一样逐个位置处理。通过自注意力机制,模型可以根据输入序列中不同位置的重要程度,动态地分配注意力权重,从而更好地捕捉序列中的关系和依赖。 2. 位置编码(Positional Encoding): 由于自注意力机制不考虑输入序列的位置信息,为了使模型能够区分不同位置的词语,Transformer 模型引入了位置编码。位置编码是一种特殊的向量,与输入词向量相加,用于表示词语在序列中的位置信息。位置编码通常是基于正弦和余弦函数计算得到的固定向量,可以帮助模型学习到位置信息的表示。 3. 多头注意力机制(MultiHead Attention): Transformer 模型通过引入多头注意力机制,可以并行地学习多个注意力表示,从不同的子空间中学习不同的特征表示。每个注意力头都是通过将输入序列线性变换成查询(Query)、键(Key)和值(Value)向量,并计算注意力分数,然后将多个头的输出拼接在一起得到最终的注意力表示。 4. 残差连接(Residual Connection)和层归一化(Layer Normalization): 在每个子层(SelfAttention 层和前馈神经网络层)的输入和输出之间都引入了残差连接,并对输出进行层归一化。残差连接可以缓解梯度消失和梯度爆炸问题,使得模型更容易训练和优化;层归一化可以加速训练过程,并提高模型的泛化能力。 5. 位置感知前馈网络(Positionwise FeedForward Networks): 在每个注意力子层之后,Transformer 模型还包含了位置感知前馈网络,它是一个两层的全连接前馈神经网络,用于对注意力表示进行非线性转换和映射。位置感知前馈网络在每个位置独立地进行计算,提高了模型的并行性和计算效率。 通过以上关键点,Transformer 模型能够有效地捕捉输入序列中的长距离依赖关系,并在各种序列到序列的任务中取得了优异的性能。
2024-04-22
Transformer Debugger 工具的介绍和开源地址
Transformer Debugger (TDB) 是由 OpenAI 的 Superalignment 团队开发的一种工具,旨在支持对小型语言模型特定行为的调查。该工具将自动可解释性技术与稀疏自动编码器相结合。 开源地址是:https://github.com/openai/transformerdebugger
2024-03-20
帮我提交一份最适合企业办公管理人员的中文AI提示词教程,浅显易懂,生动有趣,不超过60分钟的授课时间内容材料
很抱歉,目前没有适合企业办公管理人员的中文 AI 提示词教程相关内容。但我可以为您提供一个大致的框架来创建这样的教程: 一、引言 介绍 AI 提示词的重要性和在企业办公中的应用场景。 二、基础概念 1. 解释什么是 AI 提示词。 2. 举例说明简单的提示词示例。 三、提示词的构建原则 1. 清晰明确 避免模糊和歧义。 具体描述需求。 2. 完整性 包含必要的信息。 不遗漏关键细节。 四、不同场景下的提示词应用 1. 数据分析与报告 如何获取准确的数据分析结果。 生成清晰的报告提示词技巧。 2. 项目管理 安排任务和跟踪进度的提示词。 协调团队的有效提示词。 3. 客户服务 快速解决客户问题的提示词。 提供满意答复的提示词要点。 五、实践与练习 让学员自己尝试构建提示词,并进行分享和讨论。 六、总结 回顾重点内容,鼓励学员在实际工作中应用。 您可以根据以上框架,结合具体的案例和生动的语言,来丰富和完善这份教程,使其满足您的需求。
2024-09-09
帮我提交一份最适合企业办公管理人员的AI提示词教程,浅显易懂,生动有趣,不超过60分钟的授课时间内容材料
以下是为企业办公管理人员准备的一份 AI 提示词教程,预计授课时间不超过 60 分钟,内容浅显易懂、生动有趣: 一、什么是 prompt(提示词) 为什么 prompt 又被称之为咒语,而使用 AI 的人被称之为魔法师呢?通过本部分的学习,您将明白其中的道理,并能迅速入门 prompt 的使用,达到一般公司设计岗所需的 AI 绘图水准。 建议:打开任意一款 SD 产品分屏对照使用。 二、人机协作 在短短 45 分钟的课堂中,您将了解到人机协作的重要性。比如通过兔龟的例子,您会明白在绘图提示词中,要清晰表达、给出具体描述。为了教垫图技巧,还会给出让兔龟站起来却失败的例子。 三、与 AI 对话迭代 不管是和 AI 脑洞机一起设计新生物,还是写歌词,您需要在和 AI 对话的过程中把自己的偏好告诉它。通过几次迭代,您将学会如何更好地与 AI 交流。 四、要有自己的判断 AI 可能会胡说八道,因此人类不能无脑依赖 AI。面对 AI 给的答案要多思考“它说得对吗”,多参考相关信息,避免被带偏。例如改良版荔枝瓢虫的故事,能让您记住人类得有自己的判断。 如果您在学习过程中有任何觉得不够清晰的地方,请在评论区留言,或者添加微信 designurlife1st 直接沟通(记得备注来意:ai 绘图交流)。
2024-09-09
大语言模型领域, 如何理解“退火”概念。 请用通俗易懂的方式举例说明
在大语言模型领域,“退火”是一个相对复杂的概念。通俗地说,您可以把它想象成铁匠打铁时的一个过程。铁匠在打造铁器时,不会一开始就用猛火高温一直烧,而是会逐渐升高温度,然后再慢慢降低温度,让金属的结构更加稳定和优化。 在大语言模型中,“退火”的作用类似于此。它可能是在模型的训练过程中,对某些参数或者条件进行逐步的调整和优化,以达到更好的性能和效果。但目前提供的知识库内容中,没有直接关于大语言模型中“退火”概念的详细且通俗易懂的解释和具体例子。
2024-08-13
请用简单易懂的语言讲一下Fine-tuning
Finetuning,也叫做微调,是一种迁移学习技术,常用于深度学习中。这种方法的基本思路是:首先,我们有一个预训练的模型,这个模型已经在大量的数据上训练过,已经学会了一些基本的模式和结构。然后,我们再在特定的任务数据上继续训练这个模型,使其适应新的任务,这就是所谓的"finetuning"。
2024-04-23
请用简单易懂的语言讲一下pre-training
预训练(pretraining)的目标是让模型学习一种语言模型,用于预测文本序列中的下一个单词。训练数据通常是互联网上的大量文本。模型从这些文本中学习词汇、语法、事实以及某种程度的推理能力。这个阶段结束后,模型可以生成一些有意义且语法正确的文本,但可能无法理解具体任务的需求。
2024-04-23
能用简单易懂的方法给我讲一下扩散模型的原理、核心技术思想和工作流程吗
扩散模型(Diffusion Models)是深度学习领域中一种强大的生成模型,它最近在生成图像、音频和其他类型的数据方面取得了显著的进展。扩散模型的核心思想是模拟物理过程中的扩散现象,将其应用于数据生成。 原理和核心技术思想: 1. 正向过程(Forward Process): 扩散模型的灵感来源于物理学中的扩散现象,比如一滴墨水在清水中逐渐扩散开来。 在数据生成的上下文中,正向过程模拟了数据逐渐“变得随机”的过程。从一个确定的输入数据点(比如一张清晰的图片)开始,通过逐步添加噪声,将其转化为一个完全随机的噪声分布。 2. 逆向过程(Reverse Process): 与正向过程相反,逆向过程的目标是从噪声数据重构出原始数据。 这个过程就像是逆转扩散过程,逐步预测并去除噪声,最终恢复出清晰的数据。 3. 概率框架: 扩散模型在概率框架下工作,它定义了数据从初始状态到噪声状态的马尔可夫链,以及从噪声状态恢复到初始状态的逆马尔可夫链。 4. 训练过程: 通过训练一个神经网络来学习逆向过程中的每一步,即如何从噪声数据中去除噪声并逐步恢复出原始数据。 工作流程: 1. 初始化: 选择一个初始数据点,比如一张图片。 2. 正向扩散: 通过逐步添加噪声,将初始数据点转化为噪声数据。这个过程可以看作是一系列逐步增加噪声的步骤。 3. 训练逆向模型: 使用神经网络学习如何逆转扩散过程。在训练阶段,网络会接收到部分噪声数据,并尝试预测原始数据。 4. 逆向去噪: 在生成阶段,从随机噪声开始,利用训练好的神经网络逐步去除噪声,每一步都使数据更接近原始状态。 5. 生成数据: 经过多轮逆向去噪步骤后,最终生成清晰的数据,如高质量的图片或音频。 扩散模型的一个关键优势是它能够生成高保真度的复杂数据,如高分辨率的图像。此外,由于其概率性质,它还可以生成多样化的数据样本,为数据生成任务提供了新的可能性。 扩散模型在生成任务中取得的成果令人瞩目,但同时也需要大量的计算资源,因为它们通常需要数百到数千个步骤来生成数据。不过,随着硬件的发展和模型优化,扩散模型的应用前景非常广阔。
2024-04-22
推荐AI工具,并简单介绍。
以下为您推荐一些 AI 工具并作简单介绍: 内容仿写 AI 工具: 秘塔写作猫(https://xiezuocat.com/):AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译。支持全文改写、一键修改、实时纠错并给出修改建议,还能智能分析文章属性并打分。 笔灵 AI 写作(https://ibiling.cn/):智能写作助手,适用于多种文体写作,支持一键改写/续写/扩写,能智能锤炼打磨文字。 腾讯 Effidit 写作(https://effidit.qq.com/):由腾讯 AI Lab 开发的创作助手,能提升写作者的写作效率和创作体验。 AI 新闻写作工具: Copy.ai:功能强大,提供丰富的新闻写作模板和功能,能快速生成新闻标题、摘要、正文等。 Writesonic:专注写作,提供新闻稿件生成、标题生成、摘要提取等功能,智能算法可生成高质量新闻内容。 Jasper AI:主打博客和营销文案,也可用于生成新闻类内容,写作质量高,支持多种语言。 思维导图相关的 AI 工具: GitMind:免费跨平台,可通过 AI 自动生成思维导图,支持多种模式。 ProcessOn:国内思维导图+AIGC 工具,能利用 AI 生成思维导图。 AmyMind:轻量级在线工具,无需注册登录,支持自动生成节点。 Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路、生成文章大纲。 TreeMind:“AI 人工智能”思维导图工具,输入需求可由 AI 自动生成思维导图。 EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能,提升生产力。 以上内容由 AI 大模型生成,请仔细甄别。
2024-09-19
请推荐几个简单好用的AI视频剪辑网站
以下为您推荐一些简单好用的 AI 视频剪辑网站: 1. Opusclip:可利用长视频剪成短视频,网址:未提及。 2. Raskai:能将短视频素材直接翻译至多语种,网址:未提及。 3. InvideoAI:输入想法可自动生成脚本和分镜描述,进而生成视频,人工二编后合成长视频,网址:未提及。 4. Descript:通过屏幕/播客录制,以 PPT 方式做视频,网址:未提及。 5. Veed.io:具有自动翻译自动字幕功能,网址:未提及。 6. Clipchamp:微软的 AI 版剪映,网址:未提及。 7. Typeframes:类似 InvideoAI,内容呈现文本主体比重更多,网址:未提及。 8. Google vids:网址:未提及。 9. Runway:网址为 https://runwayml.com ,有网页有 app 方便。 10. Haiper:网址为 https://app.haiper.ai/ ,免费。 11. SVD:网址为 https://stablevideo.com/ ,有免费额度,对于景观更好用。 12. Pika:网址为 https://pika.art/ ,收费,https://discord.gg/pika ,可控性强,可以对嘴型,可配音。 13. PixVerse:网址为 https://pixverse.ai/ ,免费,人少不怎么排队,还有换脸功能。 14. Dreamina:网址为 https://dreamina.jianying.com/ ,剪映旗下,生成 3 秒,动作幅度有很大升级。 15. Morph Studio:网址为 https://app.morphstudio.com/ ,还在内测。 16. Heygen:网址为 https://www.heygen.com/ ,数字人/对口型。 17. Kaiber:网址为 https://kaiber.ai/ 。 18. Moonvalley:网址为 https://moonvalley.ai/ 。 19. Mootion:网址为 https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 20. 美图旗下:网址为 https://www.miraclevision.com/ 。 21. Neverends:网址为 https://neverends.life/create ,2 次免费体验,操作傻瓜。 22. SD:Animatediff SVD deforum ,免费,自己部署。 23. Leiapix:网址为 https://www.leiapix.com/ ,免费,可以把一张照片转动态。 24. Krea:网址为 https://www.krea.ai/ ,12 月 13 日免费公测了。 25. Luma:30 次免费,网址:未提及。 26. Kling:网址为 kling.kuaishou.com 。
2024-09-13
Lora简单介绍
Lora 全称 LowRank Adaptation Models,即低阶自适应模型,其作用在于影响和微调画面,能够再现人物或物品的特征。大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原模型中插入新的数据处理层的方式,避免了修改原有模型参数。LORA 模型训练是用特定特征替换大模型中的对应元素,从而生成不同于底模的图片,比如固定的人物相貌、特定的服装或者特定的风格。Lora 训练较为轻量化,所需显存较少,硬件门槛显存达到 6G 即可开启训练。 同时,模型微调方面,提供了 LoRA 微调和全量参数微调代码,关于 LoRA 的详细介绍可参考论文“。 此外,还有利用新版 SDXL 生成的如针线娃娃这样的 lora,它可以把一些常见形象制作成毛线编制的样子,需要使用 SDXL1.0 的模型,触发词是 BJ_Sewing_doll。
2024-09-09
神经网络的简单理解
神经网络是一种模仿生物神经网络结构和功能的数学模型或计算模型,用于分析图像、视频、音频和文本等复杂数据类型。 对于不同类型的数据有专门优化的神经网络,如分析图像时常用卷积神经网络,其模仿人脑处理视觉信息的方式。 在 2017 年推出 Transformer 之前,理解文本常用循环神经网络。而 Transformer 完全基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性,在处理每个词时会注意输入序列里所有其他的词,并给予不同的注意力权重以捕获依赖关系和相关性,且具有自注意力机制和位置编码(因语言顺序很重要)。 神经网络由大量人工神经元联结进行计算,大多数情况下能在外界信息基础上改变内部结构,是一种自适应系统,具备学习功能。它是一种非线性统计性数据建模工具,通常通过基于数学统计学类型的学习方法得以优化,也是数学统计学方法的实际应用,能通过统计学方法让人 工神经网络具有类似人的简单决定和判断能力,这种方法比正式的逻辑学推理演算更具优势。 神经网络可用于监督学习、无监督学习、强化学习。
2024-09-06
AI能够取代人类的什么工作场景,请简单举个实际的例子
AI 能够在一些工作场景中取代人类,例如: 在一些重复性高、规律性强的工作中,如数据录入、文件整理等,AI 可以更高效地完成任务。 某些简单的客服工作,AI 能够根据预设的回答模式处理常见问题。 不过,AI 无法完全取代需要人际交往、团队领导和复杂决策制定的角色。像云架构师、网络架构师和企业架构师等职位,不仅需要技术知识,更需要与人沟通、管理利益相关者和领导团队的能力。此外,企业领导者在利用 AI 提高工作效率的同时,仍需将更多精力投入到创新和战略规划上。 同时,知名投资机构 Nfx 在他们最新的《The AI Workforce is Here:The Rise of a New Labor Market》中提到,Sam Altman 经常提到 AGI 到来的定义之一就是 AI 能替代百分之七十的人类工作。现在 AI 正在强制逆转 SaaS 这个缩写的含义,从“软件即服务”转变为“服务即软件”,软件既能组织任务,也能执行任务,无需雇佣额外劳动力,传统的劳动力市场最终将和软件融合成为一个新市场。
2024-09-04
如何做一个简单的智能体
要做一个简单的智能体,可以按照以下步骤进行: 1. 起一个智能体的名称。 2. 写一段智能体的简单介绍。 3. 使用 AI 创建一个头像。 在编排方面: 插件:插件就像一个工具箱,里面可以放一个或者好几个工具,被称为 API。扣子平台上有很多不同类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容的 API,还有能处理多种任务的模型。如果现有的插件不符合需求,还可以自己动手制作插件并加入所需的 API。 工作流:工作流就像可视化的拼图游戏,可将插件、大语言模型、代码块等功能组合在一起,创建复杂但稳定的业务流程。工作流由多个小块块(节点)组成,开始和结束都有特殊的小块块,不同小块块可能需要不同信息才能工作,这些信息包括引用前面小块块给出的信息和自己设定的信息。 知识库:扣子的知识库功能强大,可上传和存储外部知识内容,并提供多种查找方法。如果大模型存在幻觉或某些专业领域知识不足,知识库能解决问题,让回复更准确。 开场白:为了提升体验,可以添加一段开场白,向用户说明智能体的作用。 例如在“竖起耳朵听”这个智能体中,添加了新闻搜索插件、使用了 5 个小块块来回答带有图片口语的结果、运用了自己的知识库收集地道口语表达的短句,并设置了开场白。
2024-09-02