Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

coze 能调用用户自己部署的大模型吗

Answer

Coze 可以调用用户自己部署的大模型。例如:

  • 在 Coze 上搭建工作流框架时,可通过“个人空间-工作流-创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。
  • 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。
  • 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
Content generated by AI large model, please carefully verify (powered by aily)

References

一泽Eze:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力

首先进入Coze,点击「个人空间-工作流-创建工作流」,打开创建工作流的弹窗。根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建,可以看到整个编辑视图与功能如下:其中,左侧「选择节点」模块中,根据我们的子任务需要,实际用上的有:1.插件:提供一系列能力工具,拓展Agent的能力边界。本案例涉及的思维导图、英文音频,因为无法通过LLM生成,就需要依赖插件来实现。2.大模型:调用LLM,实现各项文本内容的生成。本案例的中文翻译、英文大纲、单词注释等都依赖大模型节点。3.代码:支持编写简单的Python、JS脚本,对数据进行处理。而编辑面板中的开始节点、结束节点,则分别对应1.2分解子任务流程图中的原文输入和结果输出环节。接下来,按照流程图,在编辑面板中拖入对应的LLM大模型、插件、代码节点,即可完成工作流框架的搭建。

「第一天」COW项目:千问模型、百炼应用接入教程

百炼首页:https://bailian.console.aliyun.com/1、当我们在COW中,去直接调用千问的某一个大模型时,只需要更改key和model即可。以调用“qwen-max”模型为例,在/root/chatgpt-on-wechat/文件夹下,打开config.json文件:需要更改"model",和添加"dashscope_api_key"。那么如何去获取key呢:视频教程:[模型调用教程.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/EB8Xbv8wXoiXHCxhEWkcfUVQnFf?allow_redirect=1)图文教程:以下是参考配置:示意图:注意:需要“实名认证”后,这些key才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明你没有实名认证,点击去[实名认证](https://account.console.aliyun.com/v2?spm=5176.28508143.J_4VYgf18xNlTAyFFbOuOQe.13.38a9154amP8978#/authc/types),或查看自己是否已认证。

使用coze做一个智能报表助手

用户上传excel后,在工作流中可以拿到excel连接,然后写一个插件通过url下载当前excel,再读取excel里的数据。开始我打算把解析出来的excel数据以单元格的形式存到bot数据库,然后使用大模型根据单元格数据和用户提问生成答案,但是经过多次实验,发现大模型的计算能力特别差,经常出现计算错的情况。比如一张学生成绩表,用户想求某个学科的平均数,大模型可以把当前学科所有分数精准的提取出来,最后一步计算的时候,经常会出现错误。然后就试了一下另外一套方案,把excel转换为数据表,然后使用大模型把用户问题转换为sql,发现这样做生成的sql准确率非常高,基本都能得到想要的结果。coze里不能动态创建表,所以我自己写了一个服务,在动作流里调用这个服务,根据excel的url动态创建表,同时把excel数据插入到表中,最后把服务返回的动态表名存到coze数据库中,这一步是为了后续用户提问问题时,根据表名动态执行sql,拿到数据。最后再根据数据库表字段信息,使用大模型为用户生成3个推荐报表,报表信息中包含标题、描述、查询sql。这里防止一次查询出来的数据过多,传给大模型时候崩溃,所以限制数据100条。拿到sql后,使用插件动态执行sql查询数据,再根据标题和数据使用大模型转换为绘制echarts图表的参数。绘制图表,官方有一个插件,但是这个插件生成的图表图表有点模糊,我自己就写了一个插件,生成的图表图片就清晰度比较高,echarts绘制图表时可以设置缩放,我给图片放大了三倍,清晰度就变高了很多。

Others are asking
你如何评价字节的coze?
Coze 是由字节跳动推出的 AI 聊天机器人和应用程序编辑开发平台,专为开发下一代 AI 聊天机器人而设计。其主要特点包括: 1. 多语言模型支持:使用了大型语言模型,如 GPT48K 和 GPT4128K,并提供云雀语言模型等,以支持不同场景下的对话和交互。 2. 插件系统:集成了超过 60 款插件,涵盖资讯阅读、旅游出行、效率办公、图片理解等功能,同时支持用户创建自定义插件,以扩展 Bot 的能力。 3. 知识库功能:允许用户上传和管理数据,支持 Bot 与用户数据交互,可以上传多种格式的文档,或基于 URL 获取在线内容和 API JSON 数据。 4. 数据库和记忆能力:提供了数据库功能,允许 Bot 访问会话内存和上下文,持久记住用户对话中的重要参数或内容。 5. 工作流设计:用户可以通过拖拉拽的方式快速搭建工作流,处理逻辑复杂的任务流,提供了大量灵活可组合的节点。 6. 多代理模式:在一个机器人中可以运行多个任务,允许添加多个代理,每个代理都是一个能够独立执行特定任务的智能实体。 7. 免费使用:目前对用户完全免费,用户可以利用其强大的功能而无需支付费用。 8. 易于发布和分享:用户可以将搭建的 Bot 发布到各类社交平台和通讯软件上,让更多的用户与之互动。 字节对 Coze 的官方解释是:新一代一站式 AI Bot 开发平台。无论是否有编程基础,都可以在 Coze 平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单的问答到处理复杂逻辑的对话。并且,可以将搭建的 Bot 发布到各类社交平台和通讯软件上,与这些平台/软件上的用户互动。 个人认为:Coze 是字节针对 AI Agent 这一领域的初代产品,在 Coze 中将 AI Agent 称之为 Bot。字节针对 Coze 这个产品部署了两个站点,分别是国内版和海外版。国内版网址:https://www.coze.cn ,官方文档教程:https://www.coze.cn/docs/guides/welcome ,大模型使用的是字节自研的云雀大模型,国内网络即可正常访问。海外版网址:https://www.coze.com ,官方文档教程:https://www.coze.com/docs/guides/welcome ,大模型有 GPT4、GPT3.5 等(可以在这里白嫖 ChatGPT4,具体参考文档),访问需要突破网络限制的工具,参考文档:https://www.coze.com/docs/zh_cn/welcome.html 。 Bot 的开发和调试页面布局主要分为如下几个区块:提示词和人设的区块、Bot 的技能组件、插件、工作流、Bot 的记忆组件、知识库、变量、数据库、长记忆、文件盒子、一些先进的配置、触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色)。 Dify 和 Coze 都是大模型中间层产品,它们的异同点如下: 开源性:Dify 是开源的,允许开发者自由访问和修改代码,以便进行定制。Coze 目前没有明确信息表明其是否开源,可能更侧重于提供商业化服务和产品。 功能和定制能力:Dify 提供直观界面,结合 AI 工作流、RAG 管道、代理能力和模型管理等功能,支持通过可视化编排,基于任何 LLM 部署 API 和服务。Coze 提供丰富的插件能力和高效的搭建效率,还支持发布到多个平台作为 Bot 能力使用。 社区和支持:Dify 作为开源项目,拥有活跃的社区,开发者可以参与到产品的共创和共建中。Coze 可能更多地依赖于官方的更新和支持,社区参与和开源协作的程度可能不如 Dify。选择使用 Dify 或 Coze 时,开发者和企业需要根据自己的需求和目标来做出决策。
2025-02-10
如何将COZE智能体发布到小程序
将 COZE 智能体发布到小程序的步骤如下: 1. 完成基础配置: 创建模板并升级版本。 在全局设置中调整品牌名称和 Logo,根据喜好调整页面设计和功能模块,满足实际业务需求。 点击页面右上角“发布”完成项目预发布。若要正式发布上线,可点击【去发布】并继续【发布上线】。 在用户中心测试功能,可先行“设置自己为非会员”或“设置自己为会员”体验流程,测试完成准备正式上线时,可删除测试区域并发布更新版本。 2. 为 Bot 添加技能: 设定 Bot 的人设与回复逻辑后,为 Bot 配置对应的技能,以保证其可以按照预期完成目标任务。例如,以获取 AI 新闻的 Bot 为例,为其添加一个搜索新闻的接口来获取 AI 相关的新闻。 (可选)为 Bot 添加开场白,目前支持豆包、微信公众号(服务号)。 3. 测试 Bot:配置好 Bot 后,在预览与调试区域中测试 Bot 是否符合预期,可单击清除图标清除对话记录。 4. 发布 Bot: 在 Bot 的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道,然后单击发布。 5. 准备工作: 智能体沟通页面在 Zion 中采用 OAuth 鉴权机制。获取 Coze bot 应用鉴权密钥,在 Coze 主页点击左下方扣子 API,选择 Oauth 授权模式,接着添加新令牌,并配置基本信息。在创建 Key 的过程中,系统将生成一对公钥和私钥(私钥需要下载到电脑上单独打开),最后,勾选全部权限。 获取 Bot ID:进入自己的智能体在地址栏内复制“bot/”之后的数字,并且 bot 发布时一定要选择 Agent as API。 在 Coze 上发布你的 bot,bot 发布时记得勾选 API 及 WEB SDK,Coze bot 发布存在审核周期,一般在 130 分钟,若从未审核通过或首次发布处于审核状态下,你的 bot 将无法正常被其他用户访问,务必确认你的智能体已发布成功。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2025-02-10
coze用什么插件可以生成文档
以下是关于 Coze 生成文档相关的信息: 在 Coze 汽车售后服务知识库 Bot 拆解中,由于文档中需要有时间所以新增了获取时间的插件,生成完内容后还调用了生成文档插件输出下载地址。维修报告提示词、归档文档提示词等在相应流程中使用,归档文档输出完成后同时生成在线文件以及录入数据库。 在 CT:coze 插件通过已有服务 api 创建中,进入 coze 个人空间选择插件,新建插件并命名,在插件的 URL 部分填入 ngrok 随机生成的 https 链接地址,配置输出参数,测试后发布插件。之后可以手捏插件搞定后创建 bot,并将创建的插件接入,在 prompt 里让其调用插件。 此外,关于 Coze 的更多信息: 元子:小白的 Coze 之旅中提到,如果对 AI 常见工具不熟悉可参考相关文章,Coze 上手极其简单、更新特别快、插件比较多,有一键生成思维导图、纯搜索、一键出图等插件和工作流组合。还提到了通过已有服务 api 创建插件的相关内容。
2025-02-10
请告诉我coze里面的doc maker这个插件的使用技巧
以下是关于 Coze 中 Doc Maker 插件的使用技巧: 1. 新建插件: 进入 Coze 个人空间,选择插件,新建一个插件并起个名字,如 api_1,可随意命名,甚至描述也可简单设置为 test。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 的链接地址。如果服务还开着则继续,若已关闭则重新开始。 按照 Coze 的指引配置输出参数,完成后测试并发布插件。 2. 手捏简单 Bot: 完成插件创建后,创建一个测试 api 的 bot,并将自己创建的插件接进来。在 prompt 里面明确要求一定要调用创建的插件。 3. 后续说明: 整体过程仅为说明 Coze 的插件指引好用。若在生产环境中有准备好的 https 的 api,可直接接入。 本案例中使用的是 Coze 国内版,对模型无特殊要求。 Ngrok 在本案例中仅供娱乐,生产环境中勿用。 4. 通过 Coze API 打造强大的微信图片助手: 设置任务的参考提示词,如任务 1 总结图片内容对应【识图小能手】等。 准备好 Glif 的 Token,包括在 Glif 官网注册登录,打开 Token 注册页面等。 打开 Coze 中自定义的插件编辑参数选项,填入准备的 token 并保存,关闭对大模型的可见按钮。 Bot 通过 API 渠道发布更新。若多次尝试不成功,可优化 Coze Bot 中提示词,避免使用违规字词和图片内容。 5. 使用 Coze IDE 创建插件: 登录,在左侧导航栏的工作区区域选择进入指定团队。 在页面顶部进入插件页面或在某一 Bot 的编排页面,找到插件区域并单击+图标,单击创建插件。 在新建插件对话框,完成插件图标、名称、描述、插件工具创建方式、IDE 运行时等配置并单击确认。 在插件详情页,单击在 IDE 中创建工具,在弹出的创建工具对话框设置工具名称和介绍,创建后跳转到 Coze IDE 页面进行编码。 可在 IDE 左上角工具列表区域添加更多工具,在左下角依赖包区域管理依赖包。
2025-02-10
coze 批量生成小红书图片
以下是关于利用 coze 批量生成小红书图片的相关内容: 试用链接分享:扣子使用链接为 https://www.coze.cn/s/iMCq73wp/ 。 效果展示:包括豆包和扣子的效果。 批量生产图片:有视频演示,链接为 。 需求分析:主要需求是国内可直接使用且能批量生产,选用扣子搭建工作流,可能需牺牲一定质量的文案和图片效果,一次生成句子建议不超过五句。 工作流程:包括批量生成句子、句子提取、图片生成、图片和句子结合等环节,其中图片和句子结合环节,由于扣子工作流环境缺少画图和图片处理所需包,可采用搞定设计或 PS 脚本的方式处理图片。 扣子案例合集:包含多个相关案例,如用 coze 写起点爆款小说、拆解 Coze 比赛第一的 bot 教学、用 Coze 工作流制作行业简报等,相关链接可参考 等。
2025-02-08
我想要学习coze等智能体 你可以给我推荐高质量的免费课程吗
以下是为您推荐的学习 Coze 智能体的高质量免费课程: 通识篇: 现有常见 AI 工具小白扫盲: AI 常见名词、缩写解释: 基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库: 大聪明:保姆级教程:Coze 打工你躺平: 安仔:Coze 全方位入门剖析 免费打造自己的 AI Agent 基础教程:Coze“图像流”抢先体验: YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏: 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档: 【智能体搭建共学课】一步步教你玩转 Coze 智能体,新手 0 门槛教学特邀讲师:元子:[https://www.bilibili.com/video/BV1mXqGY1EwJ/?spm_id_from=333.999.0.0&vd_source=84aaf5d504fda49d36287bb4930a47a2)(1 小时 32 分开始)
2025-02-08
我应该如何调用你的知识库并用在本地部署的deepseek上呢
要在本地部署的 DeepSeek 上调用知识库,您可以参考以下步骤: 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。配置项包括最大召回数量、最小匹配度和调用方式等。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 此外,关于 DeepSeek 的提示词相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,参考 。 如何使用: Step1:搜索 www.deepseek.com,点击“开始对话”。 Step2:将装有提示词的代码发给 Deepseek。 Step3:认真阅读开场白之后,正式开始对话。 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定)。 DeepSeekR1 提示词系统的核心原理认知包括: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 4K tokens 上下文窗口);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架方面,如果不知道如何表达,还是可以套用框架指令,包括四要素模板和格式控制语法。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧包括思维链引导和知识库调用。思维链引导中的分步标记法为请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问为在得出最终结论前,请先列举三个可能存在的认知偏差。知识库调用包括领域限定指令和文献引用模式。
2025-02-11
请提供deepSeek api的具体调用文档
以下是关于 DeepSeek 的相关信息: 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 使用方法: 搜索 www.deepseek.com ,点击“开始对话”。 将装有提示词的代码发给 DeepSeek 。 认真阅读开场白之后,正式开始对话。 特点: 很方便,只需要获得游戏代码即可。 对于新手较为推荐。 相关工具:HiDeepSeek 能让 DeepSeek 的能力更上一层楼,它能让 AI 像人类交流时那样展示思考过程,不是要让 AI 变得更聪明,而是要让其思考过程更易理解。使用时可参考以下步骤: 用 Coze 做小测试进行效果对比。 设计思路包括将 Agent 封装成 Prompt 并储存在文件、通过提示词文件让 DeepSeek 实现联网和深度思考功能、优化输出质量等。 完整提示词版本为 v 1.3 。 特别鸣谢李继刚和 Thinking Claude 等为相关设计提供帮助和灵感。
2025-02-08
你能调用deepseekR1的API吗?
DeepSeekR1 的 API 调用步骤如下: 1. 首先到 DeepSeek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。 2. 早期 DeepSeek 有赠送额度,如果没有赠送的余额,可以选择去充值。支持美元和人民币两种结算方式,以及各种个性化的充值方式。 3. 创建一个 API key,注意,API key 只会出现一次,请及时保存下来。 4. 接下来,下载 Cursor(https://www.cursor.com/),或者 VSCode(https://code.visualstudio.com/),只要代码编辑器可以下载插件即可。 5. 以 Cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline。 6. 安装完后,打开三角箭头,就可以看到 RooCline,选中并点击齿轮,进入设置,依次设置: API Provider:选择 DeepSeek。 API Key:填入已创建的 key。 模型:选择 DeepSeekreasoner。 语言偏好设置。 小贴士:记得把 HighRisk 选项都打开,这样 AI 才能帮您自动生成文件。 7. 最后做完所有不要忘记点击 Done 保存修改。 8. 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
2025-02-05
coze平台有没有DeepSeek的mml可以调用
在 Coze 平台上,DeepSeek 是可以调用的。以下是相关的具体信息: 效果对比:用 Coze 做了个小测试,大家可以对比看看,相关视频 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 这个项目是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-02-03
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
Dify如何调用飞书智能表格
Dify 调用飞书智能表格的方法如下: 1. 部署完成后,可以通过以下方式使用飞书·稍后读助手: 得益于飞书 app 的多平台支持,在电脑、手机端通过飞书机器人与稍后读助手进行对话。 直接在 Coze 商店中与 bot 进行对话。 如果还选择了部署到微信服务号、订阅号,也可以通过这些渠道调用 bot。 2. 设置稍后读存储地址: 首次使用,按以下步骤操作: 访问。 点击「更多创建副本」,然后复制新表格的分享链接。 将新链接发送到智能体对话中。 另外,还可以发送“查询存储位置”、“修改存储位置”,来更换飞书多维表格链接,调整稍后读存储位置。 3. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接。如果是第一次使用,会要求授权共享数据。授权通过后,再次输入需要收藏的页面链接,即可完成收藏。 目前部分页面链接可能会小概率保存失败,暂未定位原因。 4. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 此外,关于 Dify 在微信上的调用,可参考以下信息: GitHub: https://github.com/zhayujie/chatgptonwechat Gitee: https://gitee.com/zhayujie/chatgptonwechat 这里先暂时不过多介绍 Dify,它跟 AutoGPT、MetaGPT、FastGPT 等都是可以自己构建 Agent、工作流的 LLM 应用开发平台。AM 就是搭建在 Dify 上面的。 说回 LlamaEdge,可以自建一个 API 扩展来实现调用上面的 FLUX.1 API Server(套娃)。 API 扩展说明,可以查看:https://docs.dify.ai/zhhans/guides/extension/apibasedextension,但貌似 0.8.3 的版本不再使用了(dify 里面有不少功能更新缺陷或版本冲突,所以使用时需要自行修改或提交 PR)。 也可以引入项目,在 bot/dify/新建一个 dify_image.py 的程序,将画图程序的调用过程写到 dify bot 中,如用 query“画”开头接提示来触发调用。dify_image.py 后续会更新到代码仓库中。 图片服务器,很简单,分别写一个 Flask app 程序和一个 html: app.py template/index.html 以上代码都可以由 Phind、Copilot、Cursor、Zed + ollama + 一个代码大模型代劳,但架构感觉整复杂了不够优雅,后面整理好打包一个解决方案再提交一个 repo。
2025-01-24
我是一个零基础的小白用户,可以给我制定一个周期为两个月的关于大模型知识的学习计划么
以下是为您制定的一个为期两个月的大模型知识学习计划: 第一个月: 第一周: 了解 AI 的基本概念,包括人工智能、机器学习、监督学习、无监督学习和强化学习等。 熟悉生成式 AI 生成的内容(AIGC)。 第二周: 深入学习大语言模型(LLM)的概念,区分其与其他生成式 AI 模型的不同。 研究 Transformer 模型,理解其基于自注意力机制处理序列数据的原理。 第三周: 学习不同类型的大模型架构,如 encoderonly、encoderdecoder 和 decoderonly 模型,并了解其应用场景。 了解大模型预训练数据的来源和规模。 第四周: 研究大模型的参数规模和其对性能的影响。 分析大模型在自然语言处理中的任务,如分类、情感分析、翻译和摘要等。 第二个月: 第一周: 比较不同大模型的特点和优势,如 GPT3 和 ChatGPT。 学习大模型在安全性方面的问题和挑战。 第二周: 探索大模型在实际应用中的案例,如文本生成、故事写作等。 了解大模型的发展趋势和未来方向。 第三周: 复习和巩固之前所学的大模型知识,查漏补缺。 尝试自己动手实践一些简单的大模型应用。 第四周: 总结所学的大模型知识,形成自己的理解和体系。 思考如何将大模型知识应用到实际工作或学习中。
2025-02-11
用户运营AI
以下是关于用户运营 AI 的相关内容: AI 技术的发展对职业形态有巨大影响,但技术进步是不可逆的趋势。对于新媒体运营和用户运营,AI 虽能在某些方面提供帮助,如生成文章和解决单点问题,但在内容创新、创造力、了解人性需求和制定策略方面,人类仍具有优势。 以新媒体运营为例,其核心竞争力在于内容的创新和创造力,AI 生成的文章缺乏创造性和人情味。对于用户运营,AI 能胜任客户服务和解决单点问题,但在了解人性需求变化并制定相应策略上存在难题。 在人工智能时代,我们应重点提升以下能力: 1. 提升提问技巧:在信息泛滥的时代,高质量的问题更重要。提问反映思考方式和能力,通过独立思考,向 ChatGPT 等工具提出优质问题,以获得满意答案。 2. 培养学习方法:面对无尽知识,要提高学习能力和效率,掌握正确的学习方法以事半功倍。 此外,在开源 AI 社区中,可利用社群运营机器人实现知识库问答和定时推送等功能。通过将社区积累的文章和资料喂给机器人学习,它能通过 RAG 机制匹配用户问题给出准确稳定的答案,还能给出延伸阅读链接鼓励用户主动学习。同时,机器人可定时推送活动信息和社区动态,提高通知的准确性和及时性。
2025-02-05
总结一下当前AI发展现状以及指导非开发者一类的普通用户如何使用及进阶使相关工具
当前 AI 发展现状: 涵盖了不同领域的应用和发展,如电子小说行业等。 包括了智能体的 API 调用、bot 串联和网页内容推送等方面。 对于非开发者一类的普通用户使用及进阶相关工具的指导: 可以先从国内模型工具入手,这些工具不花钱。 学习从提示词开始,与模型对话时要把话说清,强调提示词在与各类模型对话中的重要性及结构化提示词的优势。 对于技术爱好者:从小项目开始,如搭建简单博客或自动化脚本;探索 AI 编程工具,如 GitHub Copilot 或 Cursor;参与 AI 社区交流经验;构建 AI 驱动的项目。 对于内容创作者:利用 AI 辅助头脑风暴;建立 AI 写作流程,从生成大纲开始;进行多语言内容探索;利用 AI 工具优化 SEO。 若想深入学习美学概念和操作可报野菩萨课程。国内模型指令遵循能力较弱时,可使用 launch BD 尝试解决。
2025-01-31
国外用户数最多的ai工具
根据所提供的内容,国外访问量最大的 AI 工具中,ChatGPT 独占 140 亿流量,占总流量的 60%。Writerbuddy AI 分析了 3000 多种 AI 工具,选出访问量最大的 50 个工具,共产生超过 240 亿次访问量,且 AI 行业每月增长 2.363 亿访问量,这 50 个工具增长率达 10.7 倍。在分析的前 50 名 AI 工具的地理行为方面,中国排名第 47 位。美国在顶级 AI 公司数量方面领先,欧洲以及澳大利亚和加拿大在 AI 投资和采用方面落后,所有欧盟国家合计产生了 39 亿流量,占总量的 16.21%。
2025-01-29
客服系统,需要写一段提示词给大模型,需求是,先跟用户表示歉意,产品问题请咨询我另外一个同事,点击同事名称即可咨询,每次回复的内容不能一样
以下是为您生成的客服系统相关的大模型提示词示例,每次回复内容不同: 1. 非常抱歉给您带来了不便,关于产品问题,您可以咨询我的同事,点击即可进行咨询。 2. 很抱歉让您遇到了困扰,产品方面的疑问请找我的同事咨询,点击就能联系到。 3. 实在不好意思呀,产品的问题您向我的同事咨询会更清楚,点击即可开启咨询。 4. 深感抱歉,对于产品的情况,建议您咨询我的同事,点击就能和他交流。 5. 抱歉给您造成了不好的体验,产品相关问题请咨询我的同事,点击就能获取帮助。
2025-01-26
RVC声音模型训练
RVC 声音模型训练是将输入音频转换为训练的声音,即变声。它对训练素材量级要求较高,最少需要 20 分钟的素材才能达到理想效果,并且可以选择是否关联音高,以区分说话和唱歌两个不同场景。 在节目《马上封喉》中,负责马季老师语音生成部分的人员提到,AI 语音主要涉及 TTS(文本转语音)和 RVC 两项技术。此次的 AI 马季主要以 gptsovits 为主。 在 AI 春晚《西游不能停》的创作过程中,尝试了用 RVC 进行 vocal 变声的两种办法,但效果均不理想。第一种方法是训练声音模型后直接变声,存在变声后 AI 味儿太重、丢失原有强调的问题;第二种方法是训练声音模型,自己录 rap 后再变声,但需要在录音时尽量模仿还原出特点和感觉,这涉及到专业配音技巧,超出了能力范围。此外,八戒和沙僧声音的训练文件丢失,效果也不理想。
2025-02-13
大型语言模型(LLM)基于Transformer架构的模型的优缺点是什么,有什么局限性
大型语言模型(LLM)基于 Transformer 架构的模型具有以下优点: 1. 在大量数据集上进行预训练,展现出卓越的语言处理能力,能预测接下来的 Token。 然而,也存在一些缺点和局限性: 1. 瞬态状态:天生缺乏持久的记忆或状态,需要额外的软件或系统来保留和管理上下文。 2. 概率性质:随机性导致响应的不确定性,对相同提示词可能产生不同回答。 3. 过时信息:依赖预训练数据,只能访问历史知识,无法获取实时更新。 4. 内容制造:可能生成看似合理但不准确的信息,即“幻觉”。 5. 资源密集:巨大规模意味着显著的计算和财务成本,影响可扩展性和可访问性。 6. 领域特定性:本质上通用,但通常需要特定领域数据才能在专业任务中表现出色。 7. 缺乏创造性:像一个高性能的知识检索工具,超出检索范围时表现差,甚至出现“幻觉”。面对复杂逻辑推导和新的知识推演能力不足,无法基于新的语料推演出新知识。 8. 对于特定领域或高度专业化的查询,容易产生错误信息或“幻觉”,特别是当查询超出训练数据或需要最新信息时。
2025-02-13
纯小白对于模型等等都没有任何概念能看懂吗
对于纯小白来说,理解模型等相关概念是有一定挑战的,但通过以下内容可以逐步入门: Tusiart 相关概念: 1. 首页包含模型、帖子、排行榜,其中发布了各种模型和生成的图片。不同模型有 checkpoint 和 lora 两种标签,有的还有 XL 标签属于 SDXL 新模型。点击可查看模型详细信息,下方是返图区。 2. 基础模型(checkpoint)是生图必需的,任何生图操作都要先选定。它与 lora 不同,lora 是低阶自适应模型,类似小插件,可有可无,但对细节控制有价值,旁边的数值是其权重。 3. ControlNet 可控制图片中特定图像,如人物姿态、生成特定文字等,属于高阶技能。 4. VAE 是编码器,类似滤镜,调整生图饱和度,一般选择 840000 这个。 5. Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。 6. 图生图是上传图片后,sd 根据图片、模型及输入信息重绘,重绘幅度越大,输出图与输入图差别越大。 AI 技术原理相关概念: 1. 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习(有标签的训练数据,学习输入和输出映射关系,包括分类和回归)、无监督学习(学习数据无标签,算法自主发现规律,如聚类)、强化学习(从反馈学习,最大化奖励或最小化损失,类似训小狗)。 深度学习是一种参照人脑的方法,有神经网络和神经元,神经网络可用于多种学习。 生成式 AI 可生成文本、图片、音频、视频等。 LLM 是大语言模型,生成图像的扩散模型不是大语言模型,有的大语言模型如谷歌的 BERT 模型可用于语义理解。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它基于自注意力机制处理序列数据,比 RNN 更适合处理文本长距离依赖性。
2025-02-13
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
给我图生图的大模型
以下为一些常用于图生图的大模型: 1. AbyssOrangeMix2:可将真人图片转为二次元风格,通过 DeepBooru 反推关键词,并结合 LORA“blindbox”重新生成,能生成 2.5D 人物风格的图片。 2. majicmixRealistic:在进行“图生图”的“涂鸦”功能时可选用,是一款追求真实性的模型。 3. revAnimated:适用于卡通类图片的图生图。 4. Realistic Vision:常用于真实类图片的图生图。
2025-02-12
什么是大模型
大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,会被数字化形成词汇表,便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。 所谓的大模型,简而言之,就是拥有庞大参数数量的模型,通过处理和理解海量数据,能够胜任一系列复杂的任务。其强大的原因在于庞大的参数数量和大量的数据训练,这些参数帮助模型更深入地理解和生成数据,而大量的数据是学习的基础,使其能掌握丰富的知识和技能。
2025-02-12