Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型的结构和训练方式

Answer

大模型的结构和训练方式如下:

  • 整体架构:
    • 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。
    • 数据层:包括静态的知识库和动态的三方数据集。
    • 模型层:分为 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)和多模态模型(如文生图、图生图等模型,训练数据为图文或声音等多模态数据集)。
    • 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。
    • 表现层:即应用层,是用户实际看到的地方。
  • 训练方式:
    • 收集海量数据:如研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。
    • 预处理数据:包括删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段等。
    • 设计模型架构:通常是一个复杂的神经网络,如可能会使用 Transformer 架构。
    • 训练模型:模型反复阅读数据,尝试预测句子中的下一个词,通过不断重复逐渐学会理解和生成人类语言。

此外,大模型的特点包括预训练数据量大(往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练)和参数多(如 Open 在 2020 年发布的 GPT-3 就已达到 170B 的参数)。模型架构方面,有 encoder-only(适用于自然语言理解任务,代表模型是 BERT)、encoder-decoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoder-only(更擅长自然语言生成任务,众多 AI 助手采用此结构)。

Content generated by AI large model, please carefully verify (powered by aily)

References

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

首先为方便大家对大模型有一个整体的认知,我们先从大模型的整体架构着手,来看看大模型的组成是怎么样的。下面是我大致分的个层。从整体分层的角度来看,目前大模型整体架构可以分为以下几层:[heading3]1.基础层:为大模型提供硬件支撑,数据支持等[content]例如A100、数据服务器等等。[heading3]2.数据层[content]这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集[heading3]3.模型层:LLm或多模态模型[content]LLm这个大家应该都知道,large-language-model,也就是大语言模型,例如GPT,一般使用transformer算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与llm不同,用的是图文或声音等多模态的数据集[heading3]4.平台层:模型与应用间的平台部分[content]比如大模型的评测体系,或者langchain平台等,提供模型与应用间的组成部分[heading3]5.表现层:也就是应用层,用户实际看到的地方[content]这个就很好理解了,就不用我多作解释了吧

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

胎教级教程:万字长文带你理解 RAG 全流程

旁白当你发现大模型的效果并没有你预期想的那么好时,你打算放弃但是你也听到了另一种声音:如果大模型没有你想的那么好,可能是你没有了解他的能力边界。你不想就这么放弃,为了更好的理解大模型,你首先了解了他的创建过程[heading2]1.收集海量数据[content]想象一下,我们要教一个孩子成为一个博学多才的人。我们会怎么做?我们会让他阅读大量的书籍,观看各种纪录片,与不同背景的人交谈等。对于AI模型来说,这个过程就是收集海量的文本数据。例子:研究人员会收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。[heading2]2.预处理数据[content]在孩子开始学习之前,我们可能会先整理这些资料,确保内容适合他的年龄和学习能力。同样,AI研究人员也需要清理和组织收集到的数据。例子:删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。[heading2]3.设计模型架构[content]就像我们要为孩子设计一个学习计划一样,研究人员需要设计AI模型的"大脑"结构。这通常是一个复杂的神经网络。这里我们就不展开了,我们只需要了解,为了让AI能够很好的学习知识,科学家们设计了一种特定的架构。例子:研究人员可能会使用Transformer架构,这是一种特别擅长处理序列数据(如文本)的神经网络结构。[heading2]4.训练模型[content]就像孩子开始阅读和学习一样,AI模型开始"阅读"我们提供的所有数据。这个过程被称为"训练"。例子:模型会反复阅读数据,尝试预测句子中的下一个词。比如给出"太阳从东方__",模型学会预测"升起"。通过不断重复这个过程,模型逐渐学会理解和生成人类语言。

Others are asking
帮我用最简单的方法解释一下时间序列模型
时间序列模型是用于分析和处理随时间变化的数据的一类模型。 例如,在评估 GPT4V 对时间序列和视频内容的理解时,会考虑其对现实世界中随时间展开的事件的理解能力,像时间预测、排序、定位、推理和基于时间的理解等。 在视频生成方面,如 Video LDM 模型,先训练图像生成器,再微调添加时间维度以生成视频。 总的来说,时间序列模型旨在理解和预测数据在时间上的变化规律和趋势。
2025-01-23
以豆包为例,如何通过API调用豆包大模型?
要通过 API 调用豆包大模型,以下是一些相关步骤和信息: 1. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 获取 key 的图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 2. 创建大模型问答应用: 首先可以通过创建一个百炼应用,来获取大模型的推理 API 服务,用于实现 AI 助手。 创建应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布,我们将在后面的步骤中去解决这一问题。 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 配置 FastGpt、OneAPI: 首先配置 OneAPI,还记得刚刚让您白嫖的大模型 API 吗?阿里的接口,这时要派上用场了,去阿里模型的链接里创建 ApiKey,并复制下来。然后在 OneAPI 的页面,点击【渠道】添加新渠道。添加时,类型选择阿里通义千问,名称自己取个,类型选择好后模型是会默认加进去,您不用删减,还有就把刚刚阿里那复制的 ApiKey 粘贴到秘钥里去。这样就 OK 了。后续有其他的大模型也是一样的添加方式。
2025-01-23
大模型训练方式
大模型的训练方式如下: 1. 通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练和使用过程: 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 找老师:即选择合适算法讲述“书本”内容,让大模型更好理解Token之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。Token被视为模型处理和生成的文本单位,能代表单个字符、单词等,在将输入进行分词时,会形成词汇表。 2. 100基础训练大模型的步骤: 步骤一·创建数据集:进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset),在数据集一栏中点击右上角创建数据集,输入数据集名称。zip文件可以是包含图片+标签txt,也可以只有图片没有打标文件,也可以一张一张单独上传照片,但建议提前把图片和标签打包成zip上传。Zip文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传zip以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 步骤二·Lora训练:点击Flux,基础模型会默认是FLUX 1.0D版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集。触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认20重复次数和10轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此lora生图的界面。点击下方的下载按钮则会自动下载到本地。 步骤三·Lora生图:点击预览模型中间的生图会自动跳转到相应页面。模型上的数字代表模型强度,可在0.61.0之间调节,也可以自己添加lora文件,点击后会显示训练过的所有lora的所有轮次。VAE不需要替换,正向提示词输入写的提示词,可以选择基于这个提示词一次性生成几张图,选择生成图片的尺寸,横板、竖版、正方形。采样器和调度器新手小白可以默认,迭代步数可以在2030之间调整,CFG可以在3.57.5之间调整,随机种子1代表随机生成图。所有设置都好了以后,点击开始生态,生成的图会显示在右侧。如果有哪次生成结果觉得很不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,这样下次生成的图就会和这次的结果近似。如果确认了一张很合适的种子和参数,想要搞清放大,则点开高清修复,可以选择想放大的倍数,新手小白可以就默认这个算法,迭代步数建议在2030之间,重回幅度根据需求调整,正常在0.30.7之间调整。 3. 今日作业:按照比赛要求,收集六个主题中一个主题的素材并且训练出lora模型后提交lora模型与案例图像。提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd
2025-01-23
大模型下文档投喂后,大模型是如何解读文档提取出答案?
大模型在文档投喂后解读文档并提取答案的过程通常包括以下步骤: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以确保问题向量能有效用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段,并抽取相关信息传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本。整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 在这个过程中还包括以下信息处理步骤: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时对信息的来源、时效性和相关性进行验证。 2. 消除冗余:识别和去除多个文档或数据源中可能存在的重复信息,以防在生成回答时出现重复或相互矛盾的信息。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建一个结构化的知识框架,使信息在语义上更加连贯。 4. 上下文构建:将筛选和结构化的信息组织成一个连贯的上下文环境,包括对信息进行排序、归类和整合,形成一个统一的叙述或解答框架。 5. 语义融合:在必要时,合并意义相近但表达不同的信息片段,以减少语义上的重复并增强信息的表达力。 6. 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式,如将文本转化为适合输入到生成模型的向量形式。 最终,全新的上下文被一起传递给大语言模型。由于这个上下文包括了检索到的信息,大语言模型相当于同时拿到了问题和参考答案,通过 LLM 的全文理解,最后生成一个准确和连贯的答案。 相关概念: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,可以理解为和大模型说的话、下达的指令。 Token:大模型语言体系中的最小单元,不同厂商的大模型对中文文本的切分方法不同,通常 1Token≈12 个汉字,大模型的收费计算方法及对输入输出长度的限制通常以 token 为单位计量。 上下文:英文通常翻译为 context,指对话聊天内容前、后的内容信息,上下文长度和上下文窗口都会影响大模型回答的质量。
2025-01-23
SD模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将文本输入到 SD 模型,经过一定迭代次数生成符合描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示重绘输入图片使其更符合描述,如在沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本编码生成 Text Embeddings 特征矩阵,用于控制图像生成。 目前 SD 模型使用的是中的 Text Encoder 模型,其只包含 Transformer 结构,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小为 123M,输出 Text Embeddings 的维度为 77x768。 以下是相关资源获取方式: SD 模型权重:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 模型”,可获得包含多种模型权重的资源链接。 SD 保姆级训练资源:关注 Rocky 的公众号 WeThinkIn,后台回复“SDTrain”,可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE、UNet 和 CLIP 三大模型的可视化网络结构图:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 网络结构”,即可获得网络结构图资源链接。
2025-01-22
到今天,大语言模型还会产生“幻觉”吗
截至今天,大语言模型仍会产生“幻觉”。 大语言模型偶尔会根据输入输出一些荒谬或不符合事实的内容,目前各家大语言模型在该问题上的表现都不尽如人意。产生“幻觉”的原因包括: 1. 样本存在错误(Imitative Falsehoods):如果大语言模型学习的“教材”中有错误,它也容易给出错误回答。缓解该问题的一个办法是上采样(Up Sampling)。 2. 信息过时(Outdated Factual Knowledge):以前正确的信息现在可能过时了。 此外,大语言模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。如果在其训练过程中,模型被暴露于大量知识之中,它并没有完美地记忆所见到的信息,并不十分清楚自己的知识边界,可能会尝试回答有关深奥话题的问题,并虚构听起来有道理但实际不正确的内容。 在构建应用程序时,可以使用一些技术来避免这种情况,例如要求模型先从文本中找到相关引文,然后使用引文回答问题,并将答案追溯回源文件,这通常有助于减少“幻觉”的发生。
2025-01-22
FLUX模型训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 1. 模型准备: 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时模型存放位置不限,但要知晓路径;训练时建议使用 flux1dev.safetensors 和 t5xxl_fp16.safetensors 版本。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 数据集准备: 建议使用自然语言,与之前 SDXL 的训练类似。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 。 若未准备数据集,此路径中有试验数据集可直接使用。 4. 运行训练:约 1 2 小时即可完成训练。 5. 验证和 lora 跑图:若有 comfyUI 基础,在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点,自行选择 Lora 并调节参数。 6. 修改脚本路径和参数: 若显卡为 16G,右键 16G 的 train_flux_16GLora 文件;若显卡为 24G 或更高,右键 24G 的 train_flux_24GLora 文件。 用代码编辑器打开,理论上只需修改红色部分,包括底模路径、VAE 路径、数据集路径、clip 路径和 T5xxl 路径。注意路径格式,避免错误。蓝色部分为备注名称,可改可不改。建议经验丰富后再修改其他深入参数,并做好备份管理。
2025-01-20
Flux 的lora模型训练教程
以下是 Flux 的 Lora 模型训练教程: 1. 模型准备: 下载所需模型,如 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意: 不使用时模型存放位置随意,只要知晓路径,后续会引用。 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 2. 下载训练脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 训练步骤: 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以提前将图片和标签打包成 zip 上传,zip 文件里图片名称与标签文件应当匹配,如图片名"1.png",对应的达标文件就叫"1.txt"。也可以一张一张单独上传照片。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 步骤二·Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 4. 低配置方案: 开源社区对低配置方案进行了优化,NF4 来自 controlnet 的作者,GGUF 则包含多个版本可以使用。 NF4 模型下载:https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors ,放置在 ComfyUI/models/checkpoint/中(不像其他 Flux 模型那样放置在 UNET 中),NF4 配套节点插件:git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git GGUF 模型下载:Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main ,GGUF 配套节点插件:GGUF 节点包:https://github.com/city96/ComfyUIGGUF 。 值得一提的是在最新版本的 ComfyUI 中 GGUF 的节点插件可以在 Manager 管理器中搜到下载安装,NF4 的配套节点插件则搜不到。 注意使用精度优化的低配模型的话,工作流和原版是不一样的。此处没有专门列举。 自己改的话就是把上面官方的 fp8 的工作流,只需把底模的节点换成 NF4 的或者 GUFF 的即可。 相关生态发展很快,有 Lora、Controlnet、IPadpter 相关生态建设非常速度,以及字节最近发布的 Flux Hyper lora 是为了 8 步快速生图。
2025-01-19
我想训练一个专属Agent该怎么做?
要训练一个专属 Agent,以下是一些关键步骤和要点: 1. 明确目标:确定您希望 Agent 实现的特定目标,这将为训练提供方向。 2. 理解智能体的定义:智能体是能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 3. 规划:将大型任务分解为更小、可管理的子目标,以有效处理复杂任务。 4. 反思和完善:让 Agent 能够对过去的行为进行自我批评和反思,从错误中吸取教训,并针对未来步骤进行完善,提高最终结果质量。 5. 记忆管理:包括短期记忆,利用模型的短期记忆进行学习;长期记忆,通过外部向量存储和快速检索实现长时间信息保留和回忆。 6. 工具使用:训练 Agent 学习调用外部 API 来获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。 7. 评估工具使用能力:从调用 API 的能力、检索 API 的能力以及计划 API 超越检索和调用的能力这三个层面进行评估。 在训练过程中,还需要注意模型的上下文窗口长度有限,输入的剧集应足够短以构建多剧集历史,2 4 个剧集的多剧集上下文对于学习近乎最优的上下文强化学习算法是必要的,且上下文强化学习的涌现需要足够长的上下文。
2025-01-17
如何创建和训练自己的智能体
创建和训练自己的智能体可以参考以下步骤: 1. 知识库创建: 在线知识库:点击创建知识库,创建一个如画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入,可编辑修改和删除,添加 Bot 后可在调试区测试效果。 本地文档:对于本地 word 文件,注意不能将所有内容一股脑放进去训练。例如画小二 80 节课程分为 11 个章节,应先放入大章节名称内容,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到,只有通过发布才能获取到 API。 在创建智能体之前,还需要了解智能体的相关知识: 智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。基于大模型的智能体具有强大的学习能力、灵活性和泛化能力。其核心在于有效控制和利用大型模型,提示词的设计直接影响智能体的表现和输出结果。 动手实践创建智能体时,可以基于公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等),尝试开发属于自己的智能体。具体步骤包括: 1. 点击“浏览 GPTs”按钮。 2. 点击“Create”按钮创建自己的智能体。 3. 使用自然语言对话或手工设置进行具体设置。 4. 开始调试智能体并发布。 此外,在创建和使用智能体的过程中,还应注意以下几点: 1. 把工作单元切割开,建设属于自己的智能体,并根据结果反馈不断调整。 2. 定期审视工作流程,看哪个部分可以更多地用上 AI。 3. 注重个人素质的提升,尤其是学习能力和创造能力,培养好奇心和持续学习的习惯,将想法转化为具体行动。
2025-01-16
怎么训练AI数字人说话的语气和语调
训练 AI 数字人说话的语气和语调可以从以下几个方面入手: 1. AI Agent:要让数字人像人一样思考,需要编写一个类似人的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建具有挑战性。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式有 HTTP、webSocket 等。但包含情绪的语音表达以及保证躯壳的口型、表情、动作和语音的同步及匹配方面,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但多为闭源,效果可参考 Nvidia 的 Audio2Face 或 Live Link Face + Face AR Sample。 3. 实时性:由于数字人的算法部分组成庞大,几乎不能单机部署,算法一般部署到额外的集群或调用提供的 API,会涉及网络耗时和模型推理耗时,低延时是亟需解决的问题。 4. 多元跨模态:不仅要有语音交互,还可根据实际需求添加其他感官交互,如通过添加摄像头数据获取视觉信息,再通过 CV 算法做图像解析。 5. 拟人化场景:正常与人交流并非线性对话,插话、转移话题等情景需通过工程进行丝滑处理。 此外,对于数字人说话相关的算法开源代码有很多,如 ASR 语音识别方面有 openai 的 whisper、wenet、speech_recognition 等;AI Agent 方面大模型有 ChatGPT、Claude、ChatGLM 等,Agent 部分可使用 LangChain 的模块自定义;TTS 方面有微软的 edgetts、VITS、sovitssvc 等。 如果都要自建代码实现各模块,开发工作量巨大,迭代难度高,个人开发者可借助开源社区的力量,如 dify、fastgpt 等成熟的高质量 AI 编排框架,通过这些框架快速编排出自己的 AI Agent。在开源项目中,使用 dify 框架可利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,实现相对复杂的功能。同时,Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于此可将数字人的语音识别和语音生成都交由 Dify 控制。使用 Dify 接口时需注意必须在应用编排功能中打开文字转语音和语音转文字功能,且只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来。
2025-01-14
我想系统性的了解AI,你能为我画一个思维导图吗,或者结构性的帮我介绍。譬如:第一级:人工智能,第二级人工智能下的所有分支
以下是为您系统性介绍 AI 的结构内容: 第一级:人工智能 第二级: 1. 基本概念 术语和基础概念 主要分支(机器学习、深度学习、自然语言处理等) 分支之间的联系 2. 学习之旅 入门课程推荐(李宏毅老师的课程等) 在线教育平台课程 3. 特定模块 图像 音乐 视频等 4. 提示词技巧 5. 实践尝试 实践巩固知识 作品分享 6. 体验产品 ChatGPT Kimi Chat 智谱 文心一言等 此外,为您推荐三本神经科学书籍: 1. 《认知神经学科:关于心智的生物学》(作者:Michael S.Gazzaniga;Richard B.Lvry;George R.Mangun) 2. 《神经科学原理》(作者:Eric R.Kandel;James H.Schwartz) 3. 《神经生物学:从神经元到脑》(作者:John G.Nicholls 等著) 还有《雪梅 May 的 AI 学习日记》中提到的学习经验,如第一阶段迈出第一步,看书听课进社区,包括系统性学习、初步探索、加入 AI 社区等。
2025-01-21
给我一个能生成结构图的软件推荐
以下是一些能够生成结构图的软件推荐: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图的创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码的工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型的图表,包括逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费的开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图的创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 需要注意的是,虽然这些工具可以辅助创建架构视图,但它们不都是基于 AI 的。AI 在绘图工具中的应用通常涉及智能推荐布局、自动生成图表代码或识别图表中的模式和关系。在选择工具时,应考虑您的具体需求,比如是否需要支持特定的建模语言、是否需要与特定的开发工具集成、是否偏好在线工具或桌面应用程序等。
2025-01-19
发生器智能系统内部电路及结构介绍
智能代理系统的内部电路及结构包括以下方面: 功能结构: 数据驱动协作:卖点提炼模块提取核心卖点,并将其直接传递给买点转化模块,确保信息准确传递和一致。 信息流转换:买点经过转化后,进入可视化展示模块,通过信息卡片和交互设计直观呈现,增强可视性和理解度。 文案优化:视觉化信息后,文案改写模块对内容进行优化调整,确保与目标受众需求高度相关。 集成内容管理:所有处理后的内容被存储和管理,保存到飞书文档,以支持未来策略优化。 这种模块之间的协同作用,使智能代理系统能够高效转化初始数据为有价值的市场信息,确保每一步骤都最大化发挥效能。 任务的处理流程: 核心任务:卖点提炼并转化为买点。 处理流程: 信息收集:首先,全面收集用户的产品基本信息,确保数据的完整性和准确性。 卖点提炼:根据收集到的信息,分别提炼出通用性卖点、描述性卖点和保障性卖点,涵盖产品多个维度,全面展示产品优势。 交互优化:通过交互式反馈机制,对提炼出的卖点进行修改和补充,提高市场适应性和吸引力。 买点转化:将优化后的卖点转化为用户视角的买点,确保信息更具吸引力和说服力。 可视化展示:最终,经过修改和补充的买点被进行可视化展示,使信息更加直观和易于理解。这一流程确保了信息在传递过程中的高效性和影响力。
2025-01-18
如果用AI来画流程图、结构图的话,应该用哪款产品?
以下是一些可以用于使用 AI 来画流程图、结构图的产品: 1. Lucidchart: 简介:强大的在线图表制作工具,集成了 AI 功能,可自动化绘制多种示意图。 功能:拖放界面,易于使用;支持团队协作和实时编辑;丰富的模板库和自动布局功能。 官网:https://www.lucidchart.com/ 2. Microsoft Visio: 简介:专业的图表绘制工具,适用于复杂的流程图等,AI 功能可帮助自动化布局和优化图表设计。 功能:集成 Office 365,方便与其他 Office 应用程序协同工作;丰富的图表类型和模板;支持自动化和数据驱动的图表更新。 官网:https://www.microsoft.com/enus/microsoft365/visio/flowchartsoftware 3. Diagrams.net: 简介:免费且开源的在线图表绘制工具,适用于各种类型的示意图绘制。 功能:支持本地和云存储(如 Google Drive、Dropbox);多种图形和模板,易于创建和分享图表;可与多种第三方工具集成。 官网:https://www.diagrams.net/ 4. Creately: 简介:在线绘图和协作平台,利用 AI 功能简化图表创建过程。 功能:智能绘图功能,可自动连接和排列图形;丰富的模板库和预定义形状;实时协作功能,适合团队使用。 官网:https://creately.com/ 5. Whimsical: 简介:专注于用户体验和快速绘图的工具,适合创建多种示意图。 功能:直观的用户界面,易于上手;支持拖放操作,快速绘制和修改图表;提供多种协作功能,适合团队工作。 官网:https://whimsical.com/ 6. Miro: 简介:在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制。 功能:无缝协作,支持远程团队实时编辑;丰富的图表模板和工具;支持与其他项目管理工具(如 Jira、Trello)集成。 官网:https://miro.com/ 使用 AI 绘制示意图的步骤: 1. 选择工具:根据具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录该平台。 3. 选择模板:利用平台提供的模板库,选择适合需求的模板。 4. 添加内容:根据需求添加并编辑图形和文字,利用 AI 自动布局功能优化图表布局。 5. 协作和分享:若需要团队协作,可邀请团队成员一起编辑。完成后导出并分享图表。 示例:假设需要创建一个项目管理流程图,可以按照以下步骤使用 Lucidchart: 1. 注册并登录:https://www.lucidchart.com/ 2. 选择模板:在模板库中搜索“项目管理流程图”。 3. 编辑图表:根据项目需求添加和编辑图形和流程步骤。 4. 优化布局:利用 AI 自动布局功能,优化图表的外观。 5. 保存和分享:保存图表并与团队成员分享,或导出为 PDF、PNG 等格式。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-06
提示词的常见结构
提示词常见的结构包括以下几种: 1. 视频模型 Vidu 的提示词结构: 基本构成:主体/场景——场景描述——环境描述——艺术风格/媒介。需调整句式和语序,避免主体物过多/复杂、分散的句式描述,避免模糊术语表达,使用流畅准确的口语化措辞,避免过度文学化叙述,丰富、准确和完整的描述以生成特定艺术风格、满足需求的视频。 与画面联想程度的说明:以单帧图像为例,通过具体详实的位置描述/环境描述进行构图,帮助构建画面基本呈现效果;通过艺术风格描述进一步提升效果和氛围,统一画面风格。 2. DALL·E 自动优化提示词结构: 提示词生成指南:强调使用精确、视觉化的描述而非难以捉摸的概念,清晰明确的指示有助于生成高质量图像。 提示词结构:是一个包括媒介、主题、背景、风格特点等多个元素的模板。媒介指定图像应模仿的艺术形式;主题是图像焦点,包括颜色、姿势和视角等;背景描述主题与环境的关系,包括时间、光线方向等;风格特点包括图像的独特艺术特点。还提供了生成图像和提出新想法的具体步骤和要求,默认设置除非另有说明会使用默认宽高比和风格,同时提醒避免使用违反服务条款的词语或概念。 3. Runway 提示词结构: 基本提示:纯文本提示遵循清晰结构,将相机运动、场景和主题的细节划分为单独部分时最有效。非纯文本提示为图片+基本提示词结构,使用输入图像时应专注描述希望在输出中看到的动作,而非图像内容。
2025-01-06
大模型结构剖析
大模型的结构主要包括以下几个部分: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)和多模态模型(如文生图、图生图等模型,训练所用数据为图文或声音等多模态数据集)。 4. 平台层:模型与应用间的平台部分,如大模型的评测体系或 langchain 平台等。 5. 表现层:也就是应用层,是用户实际看到的地方。 在大模型的运作方面,对于核心的模型层(LLm 和多模态),其原理如下: Encoderonly 模型通常适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 Encoderdecoder 模型同时结合了 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是 google 的 T5。 Decoderonly 模型更擅长自然语言生成任务,如故事写作和博客生成,众多熟知的 AI 助手基本采用此结构。 大模型的特点在于: 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,最先进的大模型一般用 TB 级别的数据进行预训练。 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。
2025-01-06
与 AI 共事,是否改变了你解决问题的方式
与 AI 共事确实改变了人们解决问题的方式。具体表现为: 更加聚焦目标,避免陷入具体细节。 从实现细节中抽离出来,更加高效地工作。 对复杂问题的理解发生变化,能力在过程中得到提升。 为流程带来全新视角,突破过去能力的限制。 对于个人博客,AI 提供了不同的思路和视角,使其变得可执行可操作。 在医疗保健领域,为了让 AI 产生真正的改变,应创建像优秀医生和药物开发者那样学习的模型生态系统。例如,预医学生和设计新疗法的科学家都需要经历从基础到专业的学习过程,AI 也应如此,通过逐步训练不同的模型,而非仅依靠大量数据和生成模型来解决问题。
2025-01-11
你是一位政策数据分析师,现在我手里有微博爬取并进行预处理的评论文本数据,想要做文本分析(不停留在描述性分析上面,往情感分析那块探索)我可以采取什么样的方式
对于您手中经过预处理的微博评论文本数据,若要进行情感分析而非仅仅停留在描述性分析层面,以下是一些可行的方式: 1. 运用机器学习算法,如朴素贝叶斯、支持向量机等,训练情感分类模型。 2. 借助深度学习模型,例如卷积神经网络(CNN)、循环神经网络(RNN)及其变体,如长短期记忆网络(LSTM)和门控循环单元(GRU),来进行情感分析。 3. 利用预训练的语言模型,如 BERT、ELMO 等,并在其基础上进行微调,以适应您的情感分析任务。 4. 引入词向量技术,将文本转换为向量表示,然后通过聚类或分类算法进行情感分析。 5. 结合词典和规则的方法,构建情感词典,根据词汇的情感倾向来判断文本的情感。 您可以根据数据特点和自身技术能力选择合适的方法。
2024-12-29
你是以为政策数据分析师,现在我手里有微博爬取并进行预处理的评论文本数据,想要做文本分析(不停留在描述性分析上面,往情感分析那块探索)我可以采取什么样的方式
对于您手中经过预处理的微博评论文本数据,若要进行情感分析而非仅停留在描述性分析层面,以下是一些可行的方式: 1. 运用机器学习算法,如朴素贝叶斯、支持向量机等,训练情感分类模型。 2. 借助深度学习模型,例如卷积神经网络(CNN)、循环神经网络(RNN)及其变体长短期记忆网络(LSTM)和门控循环单元(GRU),来进行情感分析。 3. 利用预训练的语言模型,如 BERT 等,并在其基础上进行微调,以适应您的情感分析任务。 4. 引入词向量技术,将文本转换为向量表示,然后通过聚类或分类算法进行情感分析。 5. 结合词典和规则的方法,制定情感词典和相关规则来判断文本的情感倾向。
2024-12-29
如果我现在想用claude但是无法登陆,有哪几种可以体验到claude模型的方式
以下是几种可以体验到 Claude 模型的方式: 1. 通过:这是一个优秀的 AI 助手工具,付费后可使用 Claude 3.5 sonnet、ChatGPT4O 等顶级大模型。 2. 访问:Claude 官方原版,注册后可每日限额免费体验,但存在较高的封号风险。 3. 还可以通过 Cursor、Windsurf 等 AI 编程产品,调用 Claude AI API,但不支持 Artifacts 这种即时预览的使用方式,需要单独保存代码文件后查看。不过好处是,可以用 MD、CSV 等格式的文件,存储提示词、更新记录和 AI 交互数据。 Claude AI 是一款由 Anthropic 公司开发的 AI 助手,是基于自然语言处理技术和人工智能算法的聊天机器人。以开创性计算机科学家克劳德·香农(Claude Shannon)的名字命名,利用先进的机器学习技术、自然语言处理和深度学习算法,为各种应用提供支持。 Anthropic 发布了 Claude 3 模型,该模型更擅长遵循复杂的多步指令,特别擅长遵循品牌语调和响应指南,并开发用户可以信任的客户体验。此外,Claude 3 模型更擅长生成流行的结构化输出,如 JSON 格式。Opus 和 Sonnet 现已可在 API 中使用,该 API 现已普遍可用,使开发人员能够立即注册并开始使用这些模型。Haiku 将很快可用。现在可以在上使用新的 Claude 3 模型。 要注册 Claude.ai,可以按照以下步骤进行: 1. 访问 Claude 的官方网站。 2. 点击注册或登录界面中的“Sign Up”或“Continue with email”选项。 3. 填写邮箱地址并设置密码,然后提交表单。 4. 系统会向邮箱发送一封验证邮件,打开邮件并使用其中的验证码来完成邮箱验证。 如果在注册过程中遇到需要海外手机号接收验证码的问题,可能的解决方案有: 1. 使用虚拟海外号服务,如 SMSActivate、SMSPool 等,购买一个海外虚拟手机号来接收 Claude 的验证码。 2. 借助第三方服务网站如 uiuihao.com 完成注册 Claude 账号。 3. 如果有海外朋友,可以请他们帮忙接收验证码,并将验证码告知。 完成注册后,如果希望升级到 Claude Pro 版本以获取更强大的功能和更高的 API 调用限额,需要填写支付信息并选择一个合适的订阅计划。值得注意的是,订阅 Claude Pro 可能需要使用海外支付方式。请注意,Claude.ai 目前处于公开测试阶段,未付费用户使用平台可能会受到一些限制。如果在注册过程中遇到任何问题,可以参考其他用户分享的详细注册教程和解决策略。
2024-12-23
帮我找一个搜索企业联系方式的AI
目前暂时没有专门用于搜索企业联系方式的 AI 工具。但您可以利用一些常见的搜索引擎,并结合相关的企业信息查询网站来获取企业联系方式。例如,天眼查、企查查等网站可以提供一定的企业信息,包括联系方式。
2024-12-18