Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何训练自己的智能体

Answer

训练自己的智能体可以参考以下步骤:

  1. 创建智能体
    • 知识库
      • 手动清洗数据:上节课程是自动清洗数据,自动清洗数据可能出现数据不准的情况,本节尝试手动清洗数据以提高准确性。参考【智能体】用 Coze 在微信里搭建一个机器人,还能挖掘销售线索
      • 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以###分割,选择飞书文档、自定义的自定义,输入###,可编辑修改和删除,添加 Bot 后可在调试区测试效果。
      • 本地文档:对于本地 word 文件,注意拆分内容以提高训练数据准确度,例如对于画小二的 80 节课程,分为 11 个章节,不能一股脑全部放进去训练,要先将大章节名称内容放进来,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。
    • 发布应用:点击发布,确保在 Bot 商店中能够搜到,没有通过发布无法获取 API。
  2. 参考谷歌发布的世界模型 Genie:或许有一天,Genie 可以被用作训练多任务智能体的基础世界模型。在图 14 中,作者展示了该模型已经可以用于在给定起始帧的全新 RL 环境中生成不同的轨迹。
  3. 了解基础通识课中的相关内容:
    • 流式训练方式提升训练速度和质量。
    • 多种 AI 生成工具,如输入简单提示词就能创作音乐的 so no 音频生成工具,能创建个人 AI 智能体的豆包,输入文本可生成播客的 Notebook LN。
    • 端侧大模型的特点。
    • AI 工程平台,如 define,涉及数据清洗管道、数据存储和检索、编辑生成平台、构建 prompt 技巧、智能体概念、插件调用、运维平台、模型层和缓存机制等,还能接入多家大模型。
    • AI 工程平台 coach 的应用,包括新手教程和文档,可创建智能体,通过工作流节点调用和 prompt 构建提示词,还能调用插件、图像流、知识库等,商城中有各种智能体和插件模板,知识库可添加多种格式内容。
    • 模型社区介绍,如魔搭社区等。
    • AI 建站预告。
Content generated by AI large model, please carefully verify (powered by aily)

References

【智能体】让Coze智能体机器人连上微信和微信群详细配置文档

本次创建知识库使用手动清洗数据,上节课程是自动清洗数据:[【智能体】用Coze在微信里搭建一个机器人,还能挖掘销售线索](https://a1i1hjmvcf0.feishu.cn/docx/JSdDd8ybLo7OHqxmePwcHlbLn3b?from=from_copylink),自动清洗数据会出现目前数据不准的情况,本节视频就尝试使用手动清洗数据,提高数据的准确性。[heading3]3.1在线知识库[content]点击创建知识库,创建一个画小二课程的FAQ知识库知识库的飞书在线文档,其中每个问题和答案以###分割,暂时不要问为什么。选择飞书文档选择自定义的自定义输入###然后他就将飞书的文档内容以###区分开来,这里可以点击编辑修改和删除。点击添加Bot添加好可以在调试区测试效果[heading3]3.2本地文档[content]本地word文件,这里要注意了~~~如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面画小二这个课程80节课程,分为了11个章节,那训练数据能不能一股脑全部放进去训练呢。答案是~~不能滴~~~正确的方法,首先将11章的大的章节名称内容放进来,如下图所示。章节内详细内容格式如下如所示,如果你再分节的内容,依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理然后选择创建知识库自定义清洗数据,这里不再赘述。[heading3]3.3发布应用[content]点击发布确保在Bot商店中能够搜到,如图所示可以搜索到画小二智能小助手,这个很重要,没有通过发布的获取不到API的。

谷歌发布世界模型Genie

智能体训练。或许有一天,Genie可以被用作训练多任务智能体的基础世界模型。在图14中,作者展示了该模型已经可以用于在给定起始帧的全新RL环境中生成不同的轨迹。作者在程序生成的2D平台游戏环境CoinRun中进行评估,并与能够访问专家操作作为上限的预言机行为克隆(BC)模型进行比较。消融研究。选择在设计潜在动作模型时,作者仔细考虑了要使用的输入类型。虽然最终选择使用原始图像(像素),但作者在设计Genie时针对使用标记化图像的替代方案(在图5中用z替换x)来评估这一选择。这种替代方法称为「token输入」模型(参见表2)。分词器架构消融。作者比较了三种分词器选择的性能,包括1)(仅空间)ViT、2)(时空)ST-ViViT和3)(时空)CViViT(表3)。来源:机器之心https://mp.weixin.qq.com/s/TyevzSaWihfxRA4ZZ0F1fg

02-基础通识课

[heading2]总结AI技术的发展与应用流式训练方式提升训练速度和质量:将孔明灯换成泡泡,通过流式训练方式提高了整体训练的过程速度和质量,基于Transformer模型进行流匹配,这种方式优于扩大模型。多种AI生成工具:如输入简单提示词就能创作音乐的so no音频生成工具,能创建个人AI智能体的豆包,输入文本可生成播客的Notebook LN。端侧大模型的特点:端侧大模型能部署在手机端等设备,参数量小,可利用手机自带芯片或处理器运算,主要通过压缩来解决存储和性能问题,如减少模型参数量和计算复杂度,知识蒸馏模型有教师模型和学生模型。AI工程平台:AI工程平台对模型和应用有要求,像define是典型的工程平台,涉及数据清洗管道、数据存储和检索、编辑生成平台、构建prompt技巧、智能体概念、插件调用、运维平台、模型层和缓存机制等,还能接入多家大模型。AI工程平台coach的应用:coach平台新版本有很多模板,如名画照相馆,有众多插件工具,包括必应搜索、链接读取、代码执行器等,还有工作流,可创建应用APP。AI相关工具与平台的介绍及应用coach平台的使用:介绍了coach平台的新手教程和文档,可创建智能体,通过工作流节点调用和prompt构建提示词,还能调用插件、图像流、知识库等,商城中有各种智能体和插件模板,知识库可添加多种格式内容。模型社区介绍:提到魔搭社区等几个为大模型提供数据、企业模型和算力服务的平台,有按任务划分的模型库、数据集和在线应用供体验。AI建站预告:为后续AI建站做预告,需要在今明两天安装vs code等基础软件,以简单步骤帮助文科生和无基础人员完成建站,获得正反馈。

Others are asking
什么是 AI智能体
AI 智能体是指拥有各项能力的类似机器人小助手的存在,可以为用户做特定的事情。简单理解,它就像是 AI 机器人,参照移动互联网,类似于 APP 应用的概念。 目前有不少大厂推出自己的 AI 智能体平台,如字节的扣子、阿里的魔搭社区等。体验过 GPT 或者文心一言大模型的小伙伴应该都知道,现在基本可以用自然语言来编程,降低了编程的门槛。 AI 智能体包含了自己的知识库、工作流,还可以调用外部工具,再结合大模型的自然语言理解能力,就可以完成比较复杂的工作。其出现是为了解决如 GPT 或者文心一言大模型存在的胡编乱造、时效性、无法满足个性化需求等问题,结合自身业务场景和需求,捏出专属的 AI 智能体来解决问题。 例如,在社交方向,用户注册后先捏一个自己的 Agent,然后让自己的 Agent 和其他人的 Agent 聊天,两个 Agent 聊到一起后再真人介入。在 B 端,帮助 B 端商家搭建 Agent 也是一种应用场景。 借助多步逻辑、外部内存以及访问第三方工具和 API 等新型构建块,下一波智能体正在拓展 AI 能力的边界,实现端到端流程自动化。
2025-03-13
什么是智能体
智能体(Agent)在人工智能和计算机科学领域是一个非常重要的概念,指的是一种能够感知环境并采取行动以实现特定目标的实体,可以是软件程序,也可以是硬件设备。 智能体是一种自主系统,通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以几个关键组成部分,包括规划、子目标和分解、反思和完善、记忆(短期记忆和长期记忆)、工具使用等。 智能体可以根据其复杂性和功能分为几种类型: 1. 简单反应型智能体(Reactive Agents):根据当前的感知输入直接采取行动,不维护内部状态,也不考虑历史信息。例如温控器,它根据温度传感器的输入直接打开或关闭加热器。 2. 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入进行建模,能够推理未来的状态变化,并根据推理结果采取行动。例如自动驾驶汽车,它不仅感知当前环境,还维护和更新周围环境的模型。 3. 目标导向型智能体(Goalbased Agents):除了感知和行动外,还具有明确的目标,能够根据目标评估不同的行动方案,并选择最优的行动。例如机器人导航系统,它有明确的目的地,并计划路线以避免障碍。 4. 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣,权衡利弊。例如金融交易智能体,根据不同市场条件选择最优的交易策略。 5. 学习型智能体(Learning Agents):能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。例如强化学习智能体,通过与环境互动不断学习最优策略。 随着 ChatGPT 与 AI 概念的爆火,出现了很多新名词,“智能体 Agent”还有 bot 和 GPTs 等。简单理解就是 AI 机器人小助手,参照移动互联网的话,类似 APP 应用的概念。在做 Agent 创业的公司有很多,包括 C 端和 B 端的案例。同时也有很多智能体开发平台。
2025-03-13
什么是人工智能
人工智能(Artificial Intelligence,简称 AI)是一门令人兴奋的科学,旨在使计算机表现出智能行为,例如做一些人类所擅长的事情。 最初,查尔斯·巴贝奇发明了计算机,用于按照明确的程序(即算法)进行数字运算。现代计算机虽更先进,但仍遵循相同的受控计算理念。若知道实现目标的每一步骤及顺序,就能编写程序让计算机执行。 然而,有些任务无法明确编程,如根据照片判断人的年龄。我们能做是因为见过很多不同年龄的人,但无法明确大脑完成此任务的具体步骤,所以这类任务是 AI 感兴趣的。 对于三年级的孩子,可以用能理解的语言解释:AI 就是让计算机或机器能像人类一样思考和学习的技术。 AI 分为 ANI(artificial narrow intelligence 弱人工智能)和 AGI(artificial general intelligence)。ANI 得到巨大发展,只能做一件事,如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等;AGI 则能做任何人类可以做的事。
2025-03-13
如何利用人工智能破解无人机通信协议
目前没有关于如何利用人工智能破解无人机通信协议的相关内容。破解无人机通信协议是不合法且不符合道德规范的行为,可能会导致严重的法律后果。在合法和合规的前提下,人工智能可以用于优化无人机的通信效率、增强通信安全性等方面。
2025-03-13
我想知道和manus类似的AI智能体有哪些
以下是一些与 Manus 类似的 AI 智能体: 1. Claude:传统 AI 助手,仅提供建议。 2. 专用 Agent:覆盖领域相对较窄,处理跨领域复合任务的能力可能不如 Manus。 Manus 作为一款由中国团队研发的全球首款通用型 AI 代理工具,具有以下特点: 1. 具备自主规划、执行复杂任务并直接交付完整成果的能力。 2. 技术架构主要基于多智能体架构,运行在独立的虚拟机中,核心功能由多个独立模型共同完成。 3. 包括虚拟机、计算资源、生成物、内置多个 agents 等关键组件。 4. 采用“少结构,多智能体”的设计哲学,在处理复杂任务时更加高效和准确。 5. 能够通过记忆功能优化用户偏好,具备持续学习与优化、多模态问题拆解能力、自主执行能力和多智能体架构等优势。 其运作逻辑是将人类指令按思路生成 todolist 文档,拆解任务,按需调用相关工具,评估完成质量,多个子步骤的结果嵌套利用以完成原始指令的产出。
2025-03-13
LVMH智能导购等你来:购是讲什么
LVMH 智能导购相关内容如下: 这是 LVMH 与阿里云联合举办的智能导购创意开发赛,是国内首次与全球精品时尚行业领军者联合举办的 AI 应用开发创意活动。不限主题、不限形式,参赛者可在阿里云百炼大模型服务平台定义 LVMH 集团智能导购。 赛事目标:在阿里云百炼平台,利用 AI 技术打造智能导购解决方案,引领零售新潮流。 投稿时间:2025 年 01 月 23 日至 02 月 28 日。 合作方:阿里云×LVMH 。 参赛要求及交付物: 应用开发数据:可下载作为基础数据源,若有干扰数据需自行分析解决,对于商品描述不全等信息可参照官方网站决定使用方式,使用其他非官方网站数据需谨慎并与主办方沟通。 技术文档提交要求:技术方案提交截止时间为 2025 年 2 月 28 日,通过邮箱提交,邮件标题为【LVMH&百炼杯】选手/队伍名称作品主题,内容包含概述、问题定义及解决方案、技术方案详情、附录、账号 UID 等方面。 智能导购的 100 个创意方向,例如客户体验优化方面,包括 AI 虚拟试穿助手、奢侈品养护知识问答、多语言导购机器人等 40 个方向。
2025-03-13
分布式预训练模型并行
分布式预训练模型并行主要包括以下内容: 张量并行:当模型参数增大,除流水线并行外,还可用张量并行缓解,即以前的模型并行。以矩阵乘为例,对权重矩阵 B 有按列切分和按行切分两种方案。按列切分,A 不变,每一列独立计算后结果 concat 在一起;按行切分,A 对应列切分,两部分独立计算后结果 sum 在一起。 大模型发展历程:2017 年发布的 Attention Is All You Need 论文开启了相关研究。之后有多种预训练模型,如 2018 年 Google 提出的 BERT,创新性地双向预训练并行获取上下文语义信息和使用掩码语言建模;2018 年 OpenAI 提出的 GPT,开创仅用自回归语言建模作为预训练目标;2021 年 Meta 提出的首个开源模型 LLAMA,为构建更大规模、更通用的语言模型提供方法与工具。 分布式训练的其他方面: 分布式通信原语包括点对点通信和集合通信,集合通信包含多种方式。 3D 并行包括数据并行,各自有优势和问题。 ZeRO 针对数据并行显存占用大的问题提出优化,Alpa 借鉴 AI 编译器思路对 3D 并行建模并用自动化搜索方式得到并行策略。 如果想了解更多关于 transformer 在 NLP/多模态/AIGC 的算法知识、分布式训练知识,以及如何在 TVM 上做 PTQ 量化和部署,可以关注作者 aaronxic。
2025-03-12
分布式预训练数据并行
分布式预训练中的数据并行是使用广泛且加速性能良好的并行方法。各个数据切片能完全解耦,只需在每个 minibatch 结束时进行梯度的 allreduce。数据并行分为中心化方式(如 pytorch 里的 DataParallel)和无中心化方式(如 pytorch 里的 DistributedDataParallel)。这两种方式最大的区别在于 gradient 和 reduce 计算过程。DataParallel 需在 forward 之后把所有输出 gather 到 0 号卡上,计算完 loss 之后再 scatter 到各个设备上,然后做 backward 独立计算 gradient,最后搜集 gradient 到 0 号卡,forward 和 backward 间需插入一次通信。DistributedDataParallel 则是每张卡独立做 forward 和 backward,然后对各卡的 gradient 做 allreduce,forward 和 backward 间无需通信。此外,ZeRO 的出发点是优化数据并行中的显存占用,因为在数据并行中,每个 device 上都有完整的权重、梯度和优化器状态信息,较为冗余。
2025-03-12
分布式预训练
分布式预训练是指在训练模型时采用的一种方法。 在训练 GPT 时,模型以完全随机的权重开始,随着训练时间的推移,通过从分布中抽样并持续反馈,逐渐学会关于单词、空格和逗号等的知识,预测也越来越一致。观察训练时,可通过损失函数随时间的变化来评估。经过预训练,模型在语言建模中学会强大的通用表示,能有效对任意下游任务进行微调。 此外,还有一些关于初始化权重的灵活方法,如利用非监督式训练方式逐个训练神经层。例如,以受限玻尔兹曼机器(RBM)开始,通过对比发散进行训练,生成隐藏值并模拟训练另一个 RBM,重复此过程形成多层,如有分类需求可添加隐藏单元并微调权重,这种非监督式与监督式的组合也称为半监督式学习。 深度信念网络(DBNs)在标准化 MNIST 字符识别数据库中有出色表现,超越普通神经网络。Yoshua Bengio 等提出深层网络冗余式逐层训练,认为深度机器学习方法在复杂问题上比浅显方法更有效。关于非监督式预训练,利用自动代码取代 RBM 也是一种看法,其关键在于有足够多的显示层,能学习优良的高层数据显示,与传统手动设计特征提取步骤不同。Hinton 与 Bengio 的工作证明了深层神经网络能被训练好的假设是正确的。
2025-03-12
AI大模型训练是什么意思
AI 大模型训练是一个复杂的过程,主要包括以下方面: 1. 数据转换:当请求输入到模型时,会从自然语言形式转化为机器可理解的格式,通常是向量。 2. 数学计算确定参数:类似于通过已知的几组(x,y)值计算方程式 y=f(x)=ax+b 中的参数 a 和 b,大语言模型通过计算确定可能多达 1750 亿个的参数。 3. 一般训练步骤: 无监督学习:分析大量文本数据,学习语言基本结构和常识,具备文本补齐能力,将人类知识向量化以获得基础语言模型。 清洗出好的数据。 指令微调:训练模型理解并执行具体指令,如翻译文本,以回答问题,此阶段数据输入量相对减少。 对齐过程:引入人类评价标准和处理特定格式要求,优化模型输出以符合人类期望,包括处理文化、道德等细节。 4. 生成式预训练:是机器学习领域由来已久的概念,如 GPT 模型基于 Transformer 模型,在大型未标记文本数据集上进行预训练,并能生成类似人类自然语言的文本。 5. 大模型特点: 强大在于庞大的参数数量,这些参数在学习过程中不断调整,帮助模型深入理解和生成数据。 训练依赖大量数据,包括文本、图像、音频等,通过对数据的学习掌握丰富知识和技能。 总之,大模型训练是一个涉及多步骤、大量数据和复杂计算的过程,旨在使模型具备强大的语言处理和生成能力。
2025-03-11
文档转训练集
将文档转训练集通常可以按照以下步骤进行: 1. 手动收集数据集:公司通常会雇用人员,为其提供标签说明,要求人们提出问题并写下答案。 2. 注重质量:预训练阶段的文本可能来自互联网,数量大但质量较低。在第二阶段,应更看重质量而非数量,例如采用 100,000 个高质量的对话文档。 3. 形成 SOP:初期可以先手动形成标准操作流程(SOP),然后逐步实现自动化,此过程初期可能需要大量人力。
2025-03-10
如何训练自己的模型
训练自己的模型可以参考以下步骤: 1. 选择合适的底模,如 Baichuan27BChat 模型,配置模型本地路径和提示模板。 在 Train 页面里选择 sft 训练方式,加载定义好的数据集,如 wechat 和 self_cognition。 注意学习率和训练轮次的设置,要根据数据集大小和收敛情况来调整。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的情况下,可以减少 batch size 并开启量化训练,内置的 QLora 训练方式很实用。 需要用到 xformers 的依赖。 显存占用约 20G,训练时间根据聊天记录规模大小而定,少则几小时,多则几天。 2. 对于 AI 绘画模型的训练,如 Stable Diffusion: 设置 sample_sampler,可选择多种 sampler,默认是“ddim”。 设置 save_model_as,可选择多种格式,目前 SD WebUI 兼容"ckpt"和"safetensors"格式模型。 完成训练参数配置后,运行训练脚本进行全参微调训练。 选择合适的底模型,如 WeThinkIn_SD_二次元模型。 利用 accelerate 库封装训练脚本,可根据需求切换训练环境参数。 3. 创建图像描述模型: 模型由编码器和解码器组成,编码器将输入图像转换为特征向量,解码器根据特征生成描述文本,二者组合形成完整模型。 自定义损失函数,如使用稀疏分类交叉熵并屏蔽填充部分。 编译模型后开始训练,可使用单个 GPU 训练,每个 epoch 约 15 至 20 分钟,可根据需求增加训练次数。 训练完成后进行推理与生成字幕,重构解码器结构,编写自定义推理循环以生成完整句子。
2025-03-10