Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

可以本地部署的类似coze一样的平台

Answer

以下是一些可以本地部署且类似 Coze 的平台以及直接对接 Coze 平台 Bot 的微信聊天机器人的搭建方法:

Agent 构建平台

  1. Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。
  2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。
  3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。
  4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。
  5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板。
  6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。

直接对接 Coze 平台 Bot 的微信聊天机器人搭建

  1. 微信功能差异:微信公众号、微信服务号、微信客服支持与 Coze AI 平台对接,个人微信和微信群之前不支持,现国内版已发布 API 接口功能,可实现对接。
  2. 部署步骤:
    • 服务器配置:受社群好友小雨启发,将复杂代码相关集成隐藏和优化,使用简单模板配置,修改容器编排模板,若之前有模板需修改,无模板则新建,更新后创建新的容器编排并启动服务,服务启动成功后进入 COW 服务扫码绑定微信机器人,具体步骤可参考入门教程。
    • 测试:在微信群中测试 AI 机器人。

请注意,对接国外版 Coze 平台需要部署的服务支持相关条件。

Content generated by AI large model, please carefully verify (powered by aily)

References

零基础模板化搭建 AI 微信聊天机器人

这里我们首先了解下微信的几种不同功能和它们之间的差异。微信作为一个多功能的社交平台,提供了多种方式让用户进行交流和服务获取。以下是微信中几种主要功能的区别:个人微信/微信群:个人微信和微信群是我们日常使用的聊天工具,用于与朋友、家人进行一对一或者一对多交流。然而,Coze AI平台目前不支持直接与这两个进行功能对接。微信公众号:微信公众号是一个信息发布和用户管理的平台,企业和个人可以通过它向关注者推送消息。Coze AI平台支持与微信公众号的对接,使得AI机器人能够自动回复用户的消息。微信服务号:微信服务号是公众号的一种,提供更丰富的服务功能,如在线支付、预约服务等。Coze AI平台同样支持与微信服务号的对接,帮助企业提升服务效率。微信客服:微信客服是企业与用户进行实时沟通的渠道。Coze AI平台支持与微信客服的对接,使得AI机器人能够自动回答用户的咨询,提高客服响应速度。所以到现研究了这么久,我却总是困惑,为什么就没有直接对上我们常用的个人微信和微信群聊天上呢?这才是我们日常更加常用的场景啊!这不,最近Coze的国内版终于正式发布了API接口功能,直接对接我们的个人微信甚至是微信群已经成为可能了!所以今天我就来分享一下,如何使用Coze AI机器人对接上我的微信群,让它回复我甚至是群组小伙伴的信息,帮我们尤其是群主更好地解决一些社群运营上的问题吧!对了,这次教程的相关部署方法对接国外版或国内版的Coze都是直接适用的,唯一的前提是,对接国外版Coze平台需要你部署的服务支持黑魔法才行哦!

问:有哪些好的Agent构建平台

以下是一些Agent构建平台:1.Coze:Coze是一个新一代的一站式AI Bot开发平台,适用于构建基于AI模型的各类问答Bot。它集成了丰富的插件工具,可以极大地拓展Bot的能力边界。2.Mircosoft的Copilot Studio:这个平台的主要功能包括外挂数据、定义流程、调用API和操作,以及将Copilot部署到各种渠道。3.文心智能体:这是百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。4.MindOS的Agent平台:允许用户定义Agent的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。5.斑头雁:这是一个2B基于企业知识库构建专属AI Agent的平台,适用于客服、营销、销售等多种场景。它提供了多种成熟模板,功能强大且开箱即用。6.钉钉AI超级助理:依托于钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能。这使得它在处理高频工作场景如销售、客服、行程安排等方面表现更加出色。以上信息提供了关于6个平台的概述,您可以根据自己的需求选择适合的平台进行进一步探索和应用。内容由AI大模型生成,请仔细甄别

零基础模板化搭建 AI 微信聊天机器人

其实这篇教程是我社群上一个大神级好友小雨的启发,他其实也写了一篇类似的文章内容但他跟我讨论了下,要不我来出篇更喂饭级的教程,受他的启发,所以这篇内容就来了!这个新的服务器配置其实也是整篇内容最复杂的地方,但是既然是喂饭级教程,我帮大家将很多代码相关的集成全部隐藏和优化掉了,你们接下来用的就是一些很简单的模板配置,只要基于上一篇教程的编排模板进行修改就可以切换对接上Coze了,是不是要感谢我一下哈哈!接下来我们就开始配置我们的服务器环境吧!1.如果大家是按照我的上一篇教程来的,那么这次的配置就非常简单了,只需要修改一下我们的容器编排模板就可以了。最新的容器编排模板如下:再给一个没有任何描述性的参考配置吧,方便新手小伙伴们直接参考使用:1.如果之前没有容器编排模板的小伙伴,新建一个即可,新建和修改逻辑都是如下图类似的:1.记住,更新好后的编排模板,如果之前自己已经创建过相似的机器人容器编排服务,建议先删掉,以防同一个微信机器人的绑定有冲突,删除步骤如下:1.最后就是基于新的编排模板创建一个新的容器编排,然后启动服务即可:1.等服务启动成功后,我们就可以进入到COW服务扫码绑定我们的微信机器人了!这个具体步骤可以参考我上一篇入门教程:1.至此,我们的服务就已经部署成功了,接下来就可以在我们的微信群里面测试我们的AI机器人了!

Others are asking
如何再coze中引导用户输入内容
在 Coze 中引导用户输入内容可以参考以下步骤: 1. 设计一个吐槽心灵鸡汤的应用,允许用户输入心灵鸡汤类内容,AI 生成对应的反心灵鸡汤,并展示在前端页面。应用体验地址为:https://www.coze.cn/s/iDGHwn8t/ 核心操作流程: 用户在页面输入指定文本。 用户在页面点击【开喝】按钮。 Coze 后台调用工作流生成对应内容。 工作流生成的内容展示在前端界面内。 核心前端设计: 用户界面提供一个元素 A(Coze 中称作组件),让用户输入内容。 用户界面提供一个按钮 A,让用户点击后调用工作流。 用户界面提供一个元素 B,向用户展示工作流的结果。 核心业务逻辑: 读取元素 A 的用户输入。 将用户输入传递给 AI 大模型。 AI 大模型按照提示词设定生成指定内容。 在元素 B 展示 AI 大模型生成的内容。基于上述业务逻辑,只需要设计一个简单的工作流即可。该工作流由【开始】节点(用户输入)、【大模型】节点(AI 生成内容)、【结束】节点构成(内容输出)。 2. 搭建选择内容推荐流,用于根据用户输入的“想看 xxx 内容”,在稍后读存储地址(飞书多维表格)中,检索现有的收藏记录,匹配符合阅读兴趣的内容记录。 新建工作流「recommendRead」,根据弹窗要求自定义工作流信息。 工作流全局流程设置: 4.1 开始节点:收到用户输入的“想看 xxx 内容”这类指令就开始流程,不需要额外配置(至于如何判断哪些用户输入是在交代想阅读的内容主题,交由外层 bot 的大模型判断)。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点。 4.3 插件节点:添加「飞书多维表格search_records」插件,只需要设置{{app_token}}参数,在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回需要的查询结果,也可以通过额外的配置定向检索状态为“仅记录(即未读状态)”的收藏记录。 4.4 大模型节点:为了处理的稳定性,这一步采用批处理,对检索出来的收藏记录逐个进行相关性匹配。可以继续优化提示词以提升匹配的精准度。
2025-01-09
在coze工作流中,怎样利用下一个代码节点合并前两个代码节点的输出,并以正确的格式输入传入飞书多维表格插件节点
在 Coze 工作流中利用下一个代码节点合并前两个代码节点的输出并以正确格式传入飞书多维表格插件节点的步骤如下: 1. 搭建整理入库工作流: 3.4 大模型节点:提取稍后读元数据。根据对稍后读阅读清单的元数据期望设置大模型节点,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000 以完整解析长内容网页,用户提示词需相应设置。 3.5 日期转时间戳。后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需使用「日期转时间戳time_stamp_13」插件进行格式转化,具体设置明确。 3.6 大模型节点:把稍后读元数据转换为飞书多维表格插件可用的格式。飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以要将之前得到的元数据数组进行格式转换,大模型节点配置及用户提示词需相应设置。 3.7 插件节点:将元数据写入飞书表格。添加「飞书多维表格add_records」插件,设置{{app_token}}与{{records}}参数。 3.8 结束节点:返回入库结果。「飞书多维表格add_records」插件会返回入库结果,直接引用该信息用于通知外层 bot 工作流的入库是否成功。 2. 搭建选择内容推荐流: 4.1 开始节点:输入想阅读的内容主题。收到用户输入的“想看 xxx 内容”这类指令开始流程,无需额外配置。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点并设置。 4.3 插件节点:从飞书多维表格查询收藏记录。添加「飞书多维表格search_records」插件,设置{{app_token}}参数,并在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回需要的查询结果,也可在这一步定向检索未读状态的收藏记录。 4.4 大模型节点:匹配相关内容。为处理稳定采用批处理,对检索出来的收藏记录逐个进行相关性匹配,用户提示词可优化以提升匹配精准度。 搭到这里,别忘了对整个工作流进行测试。
2025-01-09
coze合并代码节点
以下是关于 Coze 合并代码节点的相关内容: 在 Coze 上搭建工作流框架时,设定每个节点的逻辑关系很重要。对于「分段」、「拼合」代码节点设计,实际测试表明由于 LLM 的上下文长度有限,通常一次性输入输出的文本越长,生成时间越长,结果稳定性越低,特别是对生成结果格式要求较高时问题更突出。考虑到对照精读环节本身是逐段生成的,适合批处理形式,所以需要用「分段输入正文」,分割正文后用 LLM 节点批处理每一段的对照精读,最终「拼合精读结果」以输出完整文本。如果觉得编写代码脚本繁琐且仅进行文本处理,也可使用 LLM 节点配合适当 prompt 临时验证整个工作流。 在插件中心确定需要的插件时,先用关键词尝试性搜索,根据插件名称、介绍页、描述、参数、示例判断是否可能满足需求。有多个插件可选时,一般优选官方/高收藏/高成功率的插件以提升使用效果。若实际试用效果不行,则换用其他插件或自己编写上架插件。例如 TTS 文字转语音插件可通过搜索“语音”“文字转语音”“TTS”等相关关键词找到“英文文本转语音”插件;思维导图插件可通过搜索“脑图”“树图”“导图”“mindmap”等关键词找到“TreeMind 树图”插件。 Coze 工作流节点还包括大模型节点、代码节点和选择器节点。大模型节点可利用大语言模型生成文本内容,能选择所用大语言模型、设置生成内容随机度并编写提示词,提示词中支持使用{{variable}}引用输入参数。代码节点通过 IDE 编写 Python 或 JavaScript 脚本处理输入参数并返回输出值,支持 JavaScript 和 Python 运行时,尽量使用 JavaScript,尽量让 AI 去写,不熟悉时易增加麻烦。选择器节点是一个 ifelse 节点,用于设计工作流内的分支流程,每增加一个条件右边会多出一个点,点中拖到对应的下一级节点,输入参数时节点会判断是否符合“如果”区域条件,符合则执行对应分支,否则执行“否则”分支。
2025-01-09
coze工作流
Coze 的工作流具有以下特点和步骤: 特点: 是一种可视化的方式,允许用户组合各种功能模块,如插件、大语言模型、代码块等,实现复杂和稳定的业务流程编排。 由多个节点组成,包括 Start 节点和 End 节点,用户可在节点间添加各种功能模块构建业务流程。 支持丰富的功能模块,可根据需求灵活组合,如调用大语言模型进行文本生成、调用插件进行数据处理等。 工作流的创建和编辑通过可视化拖拽界面完成,无需编写代码,降低了搭建门槛。 创建好的工作流可直接集成到 Coze 的聊天机器人中使用,实现复杂业务逻辑。 为用户提供了可视化、低代码的方式,快速搭建满足业务需求的 AI 应用和服务,降低开发门槛,提升工作效率。 步骤: 梳理清楚工作流,例如对于复刻吴恩达开源的 AI 翻译项目,先新建工作流,逐步导入核心流程,工作流分为若干节点,每个节点完成特定任务,组合形成完整翻译流程。 查看导入后的整体工作流及测试效果,工作流分为初始翻译、反思优化、结果输出等主要部分,运行测试时可看到每个节点的执行过程和结果。 对每个节点的配置进行核心讲解,如开始节点选择翻译的源语言和目标语言,还可设置其他参数;初步的翻译大模型节点选择大模型进行初始翻译;选择器节点判断用户填写要求中有无特殊语言翻译特色或口音。
2025-01-09
coze工作流中数据库如何应用?主要是返回数据
在 Coze 工作流中,数据库的应用如下: 工作流由多个节点构成,节点是基本单元。Coze 平台支持的节点类型包括数据库节点。 数据库节点的输入:用户可以定义多个输入参数。 数据库节点的输出:如果数据库是查询作用,则输出会包含查询出来的内容。通过 SQL 语句告诉数据库要执行的动作,这里的 SQL 语句可以让 AI 自动生成并进行适当改动。 注意事项:Coze 平台的逻辑是数据库与 bot 绑定,使用数据库功能时,需要在 bot 中设置相同名称和数据结构的数据库进行绑定。 测试工作流:编辑完成的工作流无法直接提交,需要进行测试。点击右上角的“test run”,设定测试参数,查看测试结果,完成后发布。 相关参考文档和示例: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本示例: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent 在【拔刀刘】自动总结公众号内容,定时推送到微信的案例中,循环体内部的数据库节点用来在数据库中查询是否已经推送过该篇文章,输入项为上一步中的 url 和开始节点的 key(重命名为 suid)。查询数据库需要文章 url 和用户的 suid 两个值来判断这名用户的这篇文章是否推送过。记得设置输出项“combined_output”。同时,Coze 平台中使用数据库功能需要在 bot 中设置相同名称和数据结构的数据库进行绑定,具体设置方法参见“相关资源”。
2025-01-08
我想学习COZE平台创建智能体的详细教程。
以下是在 COZE 平台创建智能体的详细教程: 1. 基础智能体创建: 进入 coze 官网(www.coze.cn),注册并登录。 点击页面左上角的⊕。 通过【标准创建】填入 bot 的基本信息。 2. Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定 Bot 的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置:插件可扩展 Bot 的专业能力,如计算器、日历等工具;工作流可设置固定的处理流程和业务逻辑;图像流可处理和生成图像相关功能;触发器可设置自动化响应条件。 知识库管理:文本可存储文字类知识材料;表格可用于结构化数据的存储和调用;照片可作为图像素材库。 记忆系统:变量可存储对话过程中的临时信息;数据库可管理持久化的结构化数据;长期记忆可保存重要的历史对话信息;文件盒子可管理各类文档资料。 交互优化(底部区域):可设置开场白、用户问题建议、快捷指令、背景图片等。 预览与调试(右侧区域):实时测试 Bot 的各项功能,调试响应效果,优化交互体验。 3. 图像流相关: 打开 Coze 官网(https://www.coze.cn/home)。 创建图像工作流,图像流分为智能生成、智能编辑、基础编辑三类。 空间风格化插件有相关参数,如 image_url 是毛坯房的图片地址;Strength 是提示词强度,影响效果图;Style 是生成效果的风格,如新中式、日式、美式、欧式、法式等;user_prompt 是用户输入的 Promot 提示词。 按照构架配置工作流,调试工作流效果,可使用毛坯房测试用例(https://tgi1.jia.com/129/589/29589741.jpg)。 开始节点对应配置三项内容,进行提示词优化。 人设和回复逻辑:技能 1 中 3 项中的编译数字来源,然后点击右上角发布。
2025-01-08
部署Agent专属的web端应用
以下是关于部署 Agent 专属的 web 端应用的相关内容: 在 Linux 上部署较为简单,前提是您有一张 4G 以上显存的 GPU 显卡。步骤如下: 1. 下载代码仓库。 2. 安装依赖(注意有两个依赖未放在 requirements.txt 里)。 3. 启动 webui 的 demo 程序,然后用浏览器登陆服务器的 ip:8080 就能试玩。此 demo 提供了 3 个参数: server_name:服务器的 ip 地址,默认 0.0.0.0。 servic_port:即将开启的端口号。 local_path:模型存储的本地路径。 4. 第一次启动生成语音时,需查看控制台输出,会下载一些模型文件,可能因网络问题失败,但首次加载成功后后续会顺利。 5. 基于此基础可拓展,比如集成到 agent 的工具中,结合 chatgpt 做更拟人化的实时沟通。 6. webui 上可设置的几个参数说明: text:指需要转换成语音的文字内容。 Refine text:选择是否自动对输入的文本进行优化处理。 Audio Seed:语音种子,是一个用于选择声音类型的数字参数,默认值为 2,是很知性的女孩子的声音。 Text Seed:文本种子,是一个正整数参数,用于 refine 文本的停顿,实测文本的停顿设置会影响音色、音调。 额外提示词(可写在 input Text 里):用于添加笑声、停顿等效果,例如。 以下是一些 Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 以上信息仅供参考,您可根据自身需求选择适合的平台。
2025-01-07
训练以及部署微调模型
以下是关于训练以及部署微调模型的相关信息: 创建微调模型: 假设您已准备好训练数据。使用 OpenAI CLI 开始微调工作,需指定从哪个 BASE_MODEL(如 ada、babbage、curie 或 davinci)开始,可使用后缀参数自定义微调模型的名称。运行命令后会进行以下操作: 1. 使用文件 API 上传文件(或使用已上传的文件)。 2. 创建微调作业。 3. 流式传输事件直到作业完成,这通常需要几分钟,但如果队列中有很多作业或数据集很大,可能需要数小时。 每个微调工作都从默认为 curie 的基本模型开始,模型的选择会影响性能和成本。您的模型可以是 ada、babbage、curie 或 davinci,可访问定价页面了解微调费率的详细信息。 开始微调作业后,可能需要一些时间才能完成。工作可能排在其他工作之后,训练模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。若事件流中断,可通过运行特定命令恢复。工作完成后,会显示微调模型的名称。此外,还可以列出现有作业、检索作业状态或取消作业。 GPT 助手的训练: 在有监督的微调阶段,收集少量但高质量的数据集,要求人工承包商收集提示和理想响应的数据,通常是几万个或类似数量。然后对这些数据进行语言建模,算法不变,只是训练集从互联网文档变为问答提示响应类型的数据。训练后得到有监督的微调模型(SFT 模型),可实际部署。 大型语言模型的微调: 一旦有了基础模型,进入计算成本相对较低的微调阶段。编写标签说明,明确助手的表现期望,雇佣人员创建文档,如收集 100,000 个高质量的理想问答对来微调基础模型,此过程可能只需一天。然后进行大量评估,部署模型并监控表现,收集不当行为实例并纠正,将正确答案加入训练数据,重复此过程。由于微调成本较低,可每周或每天进行迭代。 例如 Llama2 系列,Meta 发布时包括基础模型和助手模型。基础模型不能直接使用,助手模型可直接用于回答问题。若想自己微调,Meta 完成的昂贵的第一阶段结果可提供很大自由。
2025-01-06
训练以及部署微调模型
以下是关于训练以及部署微调模型的相关知识: 创建微调模型: 假设您已准备好训练数据,使用 OpenAI CLI 开始微调工作。需指定从哪个 BASE_MODEL 开始,如 ada、babbage、curie 或 davinci,还可使用后缀参数自定义微调模型的名称。运行命令后会进行以下操作: 1. 使用文件 API 上传文件(或使用已上传的文件)。 2. 创建微调作业。 3. 流式传输事件直到作业完成,这通常需要几分钟,但如果队列中有很多作业或数据集很大,则可能需要数小时。每个微调工作都从默认为 curie 的基本模型开始,模型的选择会影响性能和成本,您可访问定价页面了解微调费率的详细信息。开始微调作业后,可能需要一些时间才能完成,若事件流中断,可通过运行特定命令恢复。工作完成后,会显示微调模型的名称。此外,还可以列出现有作业、检索作业状态或取消作业。 GPT 助手的训练: 在有监督的微调阶段,收集少量但高质量的数据集,要求人工承包商收集提示和理想响应的数据,通常是几万个或类似数量。然后对这些数据进行语言建模,算法不变,只是训练集从互联网文档变为问答提示响应类型的数据。训练后得到有监督的微调模型(SFT 模型),可实际部署,它们在某种程度上是有用的。 大型语言模型的微调: 一旦有了基础模型,就进入计算成本相对较低的微调阶段。在这个阶段,编写标签说明明确助手的表现期望,雇佣人员创建文档,例如收集 100,000 个高质量的理想问答对来微调基础模型,这个过程可能只需一天。然后进行大量评估,部署模型并监控表现,收集不当行为实例并纠正,将正确答案加入训练数据,由于微调成本较低,可每周或每天进行迭代。例如 Llama2 系列,Meta 发布时包括基础模型和助手模型,基础模型不能直接使用,助手模型可直接用于回答问题。
2025-01-06
模型的部署、容器化
以下是关于模型的部署和容器化的相关内容: ComfyUI ollama 本地大模型部署: 1. 先下载 ollama 安装,安装完成后可在电脑桌面右下角或隐藏图标中找到。 2. 下载对应的模型,选择模型并复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 下载的模型会保存到 D:\\ollama\\blobs 目录。 5. Docker 安装时会下载一些文件,安装后更改目录,不要放在 C 盘。 6. Open webui 安装,输入相关命令,安装成功后回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 7. 若出现端口占用问题,运行特定两条命令可解决。 8. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/ 模型部署: 1. 选择学习路径: 快速上手 使用 Anaconda: 前提条件:确保安装了 Python 3.10 以上版本。 准备环境:如需设置环境,安装所需软件包,运行特定命令。 下载模型:可从下载 Atom7BChat 模型。 进行推理:创建名为 quick_start.py 的文件,复制相关内容并运行代码。 快速上手 使用 Docker:详情参见,包括准备 docker 镜像,通过 docker 容器启动,通过 dockercompose 启动 chat_gradio。 快速上手 使用 llama.cpp:详情参见。 快速上手 使用 gradio:基于 gradio 搭建问答界面,实现流式输出,复制相关代码到控制台运行,不同模型修改 model_name_or_path 对应的模型名称。 ComfyUI FLUX: 1. 模型的安装部署: 模型:FLUX.1、FLUX.1,建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8。模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量。 clip:t5xxl_fp16.safetensors 和 clip_l.safetensors 放在 ComfyUI/models/clip/文件夹里,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率,有超过 32GB 内存建议用 fp16。 Vae:下载后放入 ComfyUI/models/vae 文件夹。 2. T5(/t5xxl_fp16.safetensors)的这个 clip 原本有输入输出,可能会导致提示词被吞,短提示效果差,训练 flux 或 sd3 时应尽量用长提示词或自然语言。
2025-01-06
模型的部署、容器化
以下是关于模型的部署和容器化的相关信息: ComfyUI ollama 本地大模型部署: 1. 先下载 ollama 安装,安装完成后不会有任何界面弹出,可以在电脑桌面右下角或者隐藏图标里面找到。 2. 之后再去下载对应的模型,选择模型,复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 下载的模型会保存到 D:\\ollama\\blobs 目录。 5. Docker 安装时会下载一些文件,安装后改下目录,不要放在 C 盘。 6. Open webui 安装,输入相关命令,安装成功后,回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 7. 若出现端口占用问题,运行特定两条命令可以解决。 8. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/ 模型部署: 1. 选择学习路径: 快速上手 使用 Anaconda: 第 0 步:确保安装了 Python 3.10 以上版本。 第 1 步:准备环境,如需设置环境,安装所需要的软件包,运行特定命令。 第 2 步:从以下来源下载 Atom7BChat 模型:。 第 3 步:进行推理,创建一个名为 quick_start.py 的文件,并将相关内容复制到该文件中,运行 quick_start.py 代码。 快速上手 使用 Docker:详情参见:,包括准备 docker 镜像,通过 docker 容器启动,通过 dockercompose 启动 chat_gradio。 快速上手 使用 llama.cpp:详情参见: 快速上手 使用 gradio:基于 gradio 搭建的问答界面,实现了流式的输出,将特定代码复制到控制台运行,不同模型只需修改 model_name_or_path 对应的模型名称。 ComfyUI FLUX 模型的安装部署: 1. 模型:FLUX.1、FLUX.1,建议选择 dev 版本的,显卡可以的用 fp16,显卡不够用的选 fp8。模型下载后,放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8,降低显存使用量,但可能稍降质量。 2. clip:t5xxl_fp16.safetensors 和 clip_l.safetensors,放在 ComfyUI/models/clip/文件夹里面。可以使用 t5xxl_fp8_e4m3fn.safetensors 来降低内存使用率,若有超过 32GB 内存,建议使用 fp16。相关链接:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main 3. Vae:下载后放入 ComfyUI/models/vae 文件夹。 4. T5(/t5xxl_fp16.safetensors)的这个 clip,原本有一个输入输出,可能会导致提示词被吞,短提示效果差,训练 flux 或者 sd3 时,应尽量用长提示词或自然语言。
2025-01-06
如何本地化部署一个ai助手
本地化部署一个 AI 助手可以参考以下几种方式: 1. 在网站上增加 AI 助手: 搭建示例网站: 创建应用:点击打开函数计算应用模板,参考相关选择直接部署、填写百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情页。在代码视图中找到 public/index.html 文件,取消相关位置的代码注释。最后点击部署代码,等待部署完成。 验证网站上的 AI 助手:重新访问示例网站页面以查看最新效果,网站的右下角会出现 AI 助手图标,点击即可唤起 AI 助手。 2. 从 LLM 大语言模型、知识库到微信机器人的全本地部署(以 windows10 系统为例): 本地 Hook 或 COW 机器人(二选一,建议先选择 COW): 注意:本教程完成后,程序将在您的电脑本地运行,假如关掉了窗口,进程也就结束。所以,如果想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。 安装环境: 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 在命令窗口中,粘贴入相关代码,确认是否有 python 和 pip。 如果没有,先进行 python 的安装,可点击下载:。 部署项目:下载 COW 机器人项目,解压缩。 3. 把大模型接入小米音箱(node.js): 第四步:填写 API 服务: 智普:接口地址:https://open.bigmodel.cn/api/paas/v4,模型:glm4flash。 硅基:选择 AI 服务为自定义,接口地址:https://api.siliconflow.cn/v1。 其他模型的 API 端口请参考官方文档:https://migptgui.com/docs/apply/。 第五步:语音服务:官方说明:https://migptgui.com/docs/faqs/tts。 第六步:启动服务:在最上方可导出编辑的内容,格式为 json 格式,如果改错了可以导入之前保存的配置。单击启动,回到 powshell 界面。每次调整设置都需要重置后重新启动。建议回答完毕后增加结束的提示语,可以提高连续对话的稳定性。官方常见问题文档:https://migptgui.com/docs/faqs/noreply。
2025-01-05
怎么学习COZE平台的操作?要全面详细
以下是全面学习 COZE 平台操作的方法: 1. 前置条件:起码已经使用过 Coze,并亲自搭建过一些简单的工作流。 2. 重点学习资源: 官方案例非常值得学习,不要错过优质资源。 观看 90 分钟的视频教程,文档教程为辅。例如“【90 分钟视频教程】全网最详细的 Coze AI 应用教学”中的案例演示,如 Coze 的创意写真馆应用:https://www.coze.cn/template/project/7442139374751629323? 以及 。 3. 操作步骤: 对于不了解 Coze 操作的情况,可以按照以下步骤完成 Agent 最后的测试与封装: 试运行整个工作流,验证整体运行效果,包括响应速度、生成质量。点击「试运行」,把待精读文章输入「开始节点」的{{BOT_USER_INPUT}},观察流程在 1 分钟内是否运行完成,最终输出的“回答内容”是否符合预期。 迭代优化工作流,提升性能。此步骤可自行按照配置思路进行细致优化。 在外层 bot 中封装工作流。 进行外层 bot 调试。 完成以上步骤后,即可发布 bot 。
2025-01-08
国内免费的生图平台
以下是一些国内免费的生图平台及相关简易上手教程: Tusiart 简易上手教程: 生图入口 1:网页顶部的右方有生图按钮,点击进入生图界面。 生图入口 2:点进首页任意一个模型(checkpoint 或 lora),有运行按钮。 生图入口 3:点进任意一个模型下面的返图区(相关帖子),点开一张喜欢的图片,右侧有做同款的按钮。点开之后可以选择自动复制所有设置,尝试复现图片,体验设置效果。但需注意,这个生图是直接复现大佬操作,但肯定不会复现大佬的图,好在大概率能出与大佬同水平同要素的图。 Liblibai 简易上手教程: 生图入口 1:网页顶部的右方有生图按钮,点击进入生图界面。 生图入口 2:点进模型广场上任意一个模型(checkpoint 或 lora),有立即生图按钮。 生图入口 3:点进任意一个模型下面的返图区,点开一张喜欢的图片,右侧有在线生成的按钮。点开之后可以选择自动复制所有设置,尝试复现图片,体验设置效果。但需注意,这个生图是直接复现大佬操作,但肯定不会复现大佬的图,好在大概率能出与大佬同水平同要素的图。 此外,目前比较成熟的通过输入图片生成类似图片的 AI 产品主要有: Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果超级好。 这些 AI 模型通过组合技术如扩散模型、大型视觉转换器等,可以根据文本或参考图像生成具有创意且质量不错的相似图像输出。但仍有一些局限,如偶尔会出现性能不稳定、生成内容不当等问题。请注意内容由 AI 大模型生成,请仔细甄别。
2025-01-08
将Agent应用钉钉平台
将 Agent 应用于钉钉平台的步骤如下: 1. 首先,您可以参考 Dify 接入微信的相关教程。在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目并安装依赖。 3. 在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信,可选择源码部署或 Docker 部署,进行快速启动测试,扫码登录,进行对话测试。 5. 把工作流编排聊天助手接入微信,创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 6. 把 Agent 应用接入微信,创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 以下是一些 Agent 构建平台供您参考: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建各类问答 Bot,集成丰富插件工具。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景表现出色。 如果您想零基础模板化搭建 AI 微信聊天机器人,添加各种自定义 COW 插件到微信机器人,部署 COW 插件的步骤如下: 1. 直接点击 Apilot 平台以下位置来复制保存好 Apilot 的 API 令牌。 2. 在宝塔服务器创建一个 config.json 文件,将相关内容复制到文件中,注意更新 sum4all 和 Apilot 的两个 API 令牌。 3. 重新删掉之前正在跑的机器人服务,重新使用新的编排模板来跑微信机器人。 4. 运行过程中如需修改 config.json 文件里的配置,可在文件位置进行内容修改,修改保存后,在容器板块中对应在跑的机器人服务点击重启即可。 更多详细内容请访问相关原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-01-07
有哪些好的Agent平台
以下是一些好的 Agent 平台: 1. Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识等,并访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 6. 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景方面表现出色。 此外,还有一些其他的平台,如 Glif 专注图处理,Myshell 具有阶段性解决问题的 Agent 范式。未来还会涌现出更多的 AI Agent 平台。但需注意,不同平台都有其固有局限。您可以根据自身需求选择适合的平台进行探索和应用。
2025-01-07
AI在自媒体平台如何应用
以下是 AI 在自媒体平台的一些应用方式: 1. 创作方面: 创作社群的每日资讯,涵盖品牌推广、产品信息、行业动态、用户互动、品牌文化、品牌活动、行业知识、兴趣爱好等内容。 写科普内容,包括目标用户、科普内容、生活问题、医疗类型等,注意通俗性和专业名词的运用。 进行剧本或脚本写作,重点在于讲述故事,引发观众情感共鸣。 生成创意营销文本素材和创意营销素材,考虑目标受众、品牌定位、产品优势等因素。 创作 AI 博主素材,例如“2023 年,让你月赚 5w 的 48 个 AI 工具”。 应用换脸技术。 2. 研究方面: 用 ChatGPT 做品牌项目的二手信息搜集。 拆解爆款内容,包括建立爆款库、让 ChatGPT 理解拆解角度、提出修改建议并分点给出答案,以及要求 ChatGPT 以特定风格修改。 3. 分发方面:从品牌内容分发角度考虑,为智能家居设备设计产品介绍视频脚本,包含音效、音乐、画面、声音等。 4. 沟通方面:小团队与甲方沟通时,利用 GPT 优化输出,使沟通更顺畅。公司的合同、协议等也可使用 GPT 进行调整,提高效率。 5. 语音方面:语音转文字推荐使用 OpenAI 的 wishper。
2025-01-07
有那些AI工具支持处理流程搭建,类似Dify那样
以下是一些支持处理流程搭建的 AI 工具,类似 Dify 那样: 1. Dify: 是一个开源的大模型应用开发平台。 结合后端即服务和 LLMOps 理念,提供直观界面快速构建和部署生产级别的生成式 AI 应用。 具备强大工作流构建工具,支持广泛模型集成,有功能丰富的提示词 IDE 和全面的 RAG Pipeline 用于文档处理和检索。 允许定义 Agent 智能体,通过 LLMOps 功能对应用程序性能持续监控和优化。 提供云服务和本地部署选项,满足不同用户需求。 开源特性确保对数据完全控制和快速产品迭代。 设计理念注重简单性、克制和快速迭代,为创业团队构建 MVP、企业集成 LLM 增强现有应用能力、技术爱好者探索 LLM 潜力提供支持和工具。 官方手册:https://docs.dify.ai/v/zhhans 。个人研究推荐单独使用,企业级落地项目推荐多种框架结合。 2. FastGPT:是成熟的高质量 AI 编排框架,有大量开源工作者维护,集成各种主流的模型供应商、工具及算法实现等。 3. Coze:服务端可用于在线编辑 Agent 应用,然后通过 API 方式集成。
2025-01-08
类似扣子的智能体创建平台还有哪些
以下是一些类似扣子的智能体创建平台: 1. 海外版 Coze(coze.com) 2. 百度 AppBuilder 3. 阿里通义千问 4. 智谱 AI 5. Dify.AI 此外,目前有不少大厂推出了自己的 AI 智能体平台,比如字节的扣子、阿里的魔搭社区等。智能体的出现旨在结合自身业务场景和需求,解决如 GPT 或文心一言大模型存在的胡编乱造、时效性及无法满足个性化需求等问题。它包含了自身的知识库、工作流,还可以调用外部工具,再结合大模型的自然语言理解能力,能够完成较为复杂的工作。
2024-12-31
类似扣子的智能体创建平台还有哪些
以下是一些类似扣子的智能体创建平台: 1. 海外版 Coze(coze.com) 2. 百度 AppBuilder 3. 阿里通义千问 4. 智谱 AI 此外,还有 Dify.AI 等平台。目前有不少大厂推出了自己的 AI 智能体平台,如字节的扣子、阿里的魔搭社区等。智能体包含了自己的知识库、工作流,还可以调用外部工具,再结合大模型的自然语言理解能力,可以完成比较复杂的工作。
2024-12-31
类似扣子的智能体创建平台还有哪些
以下是一些类似扣子的智能体创建平台: 1. 海外版 Coze(coze.com) 2. 百度 AppBuilder 3. 阿里通义千问 4. 智谱 AI 此外,还有 Dify.AI 等平台。目前有不少大厂推出了自己的 AI 智能体平台,如字节的扣子、阿里的魔搭社区等。智能体包含了自己的知识库、工作流,还可以调用外部工具,再结合大模型的自然语言理解能力,可以完成比较复杂的工作。
2024-12-31
类似扣子的智能体创建平台还有哪些
以下是一些类似扣子的智能体创建平台: 1. 海外版 Coze(coze.com) 2. 百度 AppBuilder 3. 阿里通义千问 4. 智谱 AI 此外,还有 Dify.AI 等平台。目前有不少大厂推出了自己的 AI 智能体平台,如字节的扣子、阿里的魔搭社区等。智能体包含了自己的知识库、工作流,还可以调用外部工具,再结合大模型的自然语言理解能力,可以完成比较复杂的工作。
2024-12-31
类似扣子的智能体创建平台还有哪些
以下是一些类似扣子的智能体创建平台: 1. 海外版 Coze(coze.com) 2. 百度 AppBuilder 3. 阿里通义千问 4. 智谱 AI 此外,还有 Dify.AI 等平台。目前有不少大厂推出了自己的 AI 智能体平台,如字节的扣子、阿里的魔搭社区等。智能体包含了自己的知识库、工作流,还可以调用外部工具,再结合大模型的自然语言理解能力,可以完成比较复杂的工作。
2024-12-31