Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

智能RAG客服系统搭建

Answer

搭建智能 RAG 客服系统主要包括以下方面:

  1. RAG 全貌概览:
    • RAG 的流程分为离线数据处理和在线检索两个过程。
    • 离线数据处理的目的是构建知识库,知识会按照某种格式及排列方式存储在其中等待使用。
    • 在线检索是利用知识库和大模型进行查询的过程。
  2. 应用场景:
    • 以构建智能问答客服为例,了解 RAG 所有流程中的“What”与“Why”。
  3. 客服系统的要求:
    • 具备结构清晰、全面的 FAQ 库,覆盖常见问题并根据实际场景动态更新。
    • 例如订票平台,可基于用户信息提前呈现可能遇到的问题及解答。
  4. 企业客户实践案例:
    • 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。
  5. RAG 提示工程:
    • 在利用 RAG 架构构建智能问答系统时,“指代消解”是关键挑战之一,特别是在多轮对话场景中。
    • 目前采用 Prompt 方法解决指代消解问题,会增加计算资源消耗和系统响应延迟,需权衡推理负荷、Token 消耗和问答准确性等因素,根据具体应用环境和需求做出合理选择。
Content generated by AI large model, please carefully verify (powered by aily)

References

胎教级教程:万字长文带你理解 RAG 全流程

旁白:一路千辛万苦,终于要真正了解RAG的全貌了,好激动前面的开胃菜已经完毕,这里我们进入正餐,先上一张图注:这张图引用自:https://mp.weixin.qq.com/s/37tKVQbxenVVBAeMZ334aQ公众号:AI花果山一位RAG大佬,正在编写一系列教程《RAG高效应用指南》这张图将会是我们本章的知识地图,看到这么多的概念,不要慌,我们先整体理解下RAG。自顶向下,RAG的流程分为离线数据处理和在线检索两个过程。我们前面讲到,知识库是RAG的“活字典”,可以让AI随时进行查阅。而离线数据处理的目的就是为了构建出这本“活字典”。经过离线数据后,知识则会按照某种格式以及排列方式存储在知识库中,等待被使用。而在线检索则是我们使用利用知识库+大模型进行查询的过程。在学习一门新知识的时候,是什么与为什么同等重要是什么让你知其然为什么让你知其所以然接下来我们就以RAG最经典的应用场景《构建智能问答客服》来了解RAG所有流程中的What与Why

DAY2 - 更好用的文本知识库应用跟学,快速上手阿里云百炼

AI客服vs.人工客服:优劣势对比要想高效解决用户问题,客服系统必须具备一个结构清晰、全面的FAQ库。例如,在订票平台中,基于用户的账号信息或购票路径,提前呈现用户可能遇到的问题及对应解答,这比等待用户逐一选择问题更为高效。FAQ库不仅需要覆盖常见问题,还应根据实际场景进行动态更新,确保系统的响应能力。下面列举订票平台搭建FAQ的几种视角(内容不全,抛砖引玉)原文可以参考:https://www.woshipm.com/ai/6131879.html回顾一下我们昨天的工作流:您的商城有顾客来购买冰箱,下面是一个常规流程:1.前台会询问顾客希望购买什么,并将顾客带到商店售卖冰箱区域,并有对应商品导购来服务。2.导购向顾客询问想要什么样的冰箱,以及相关预算。3.导购根据信息将合适的冰箱推荐给顾客,并促成购买。类似的,您可以通过百炼的Assistant API构建一个Multi-Agent架构的大模型应用,实现与用户主动提问,搜集必要信息的智能导购。[heading3]企业客户实践案例[heading3]内部业务助手[content]通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助RAG智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供UID并通过白名单进行开启。阿里云内部产品助手:

RAG提示工程(一):基础概念

首先我们需要把提示词更换为处理”指代消解“的专用提示词,紧接着,我们尝试提问“它对埃及的贡献是什么?”经过指代消解的处理,原先的问题“它对埃及的贡献是什么?”已经转换为更加明确的询问:“尼罗河对埃及的贡献是什么?”随着代词的消失,问题变得具体而清晰,显示出指代消解过程取得了成功。现在,让我们将这个经过优化的问题带入到接下来的对话环节中,以便模型能够准确召回对应知识片段。步骤3:使用指代消解后的问题进行提问:在问题被更换成“尼罗河对埃及的贡献是什么?”后,系统准确的召回了相关的知识片段,并对此进行了答复。至此,”指代消解“的流程演示完毕。客观来看,“指代消解”是利用RAG架构构建智能问答系统时面临的关键挑战之一,特别是在多轮对话的应用场景中尤为突出(毕竟,哪个真实的应用场景不是由一系列多轮对话构成的呢?)。然而,目前采用Prompt方法来解决指代消解问题,要求模型在生成回复之前,首先对问题进行深入的解析和推理。基于这一推理结果,才能继续提出问题。这种做法无疑增加了计算资源的消耗和系统的响应延迟。因此,在处理这类问题时,我们必须全面权衡推理负荷、Token消耗和问答的准确性等多个因素,以便根据具体的应用环境和需求,做出合理的技术选择和应用策略。

Others are asking
ragflow
RAGflow 能力拆解: 文档拆分方式: 通用模式:主要参考每个块的 token 数量,同时考虑语意完整性,切分段落点通常在句号或叹号等完整句子结束处。拆分结果和 langchain 的拆分大同小异。 Q&A 问答对:将左边内容加上“问题:”,右边内容加上“回答:”组成一个 block,数据清洗工作量大。 简历:解析容易失败,需要匹配关键词才能解析,建议官方给出简历模板。 手册:一整段文字提取,分割处在页面分页、段落分段处,块大小通常较大。 表格:拆分后每一行被当成一个块,第一行的表头插入到每一块头部。对没有特殊字符的表格信息处理较好,对图片内的公式做了 OCR 检测。 数据清洗:RAGflow 提供分段后的数据处理,可自行添加、修改数据或为数据加标签。测试发现,RAGflow 召回会同时使用向量相似度和关键词相似度并加权得到混合相似度,关键词相似度不仅匹配文本段内容还匹配关键词标签内容,单个实体在关键词中出现即为 100%。但需注意,检索获得的内容块需同时包含“问题信息”和“答案信息”,大模型才能解答。此外,RAGflow 没提供对外接口,做聊天或其他应用时不方便。 大模型 RAG 问答行业最佳案例及微调、推理双阶段实现模式:基于模块化RAG 自定义 RAG Flow 原创作者为刘焕勇,发表于 2024 年 1 月 29 日北京。在上一篇文章中介绍了模块化RAG 的相关工作,本文将从三个方面深入探讨 RAG Flow 的设计思路,分别是典型的 RAG Flow 模式、特定的 RAG 流实现以及最佳的行业案例。在典型的 RAG Flow 模式方面,将介绍 3 种微调阶段模式和 4 种推理阶段模式。
2025-02-26
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源(如维基百科),这些文档作为上下文与原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且不影响原有知识。 3. 数据库内容明确结构化,降低大模型输出出错可能。 4. 便于管控用户隐私数据。 5. 可降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-02-26
基于大模型的RAG应用开发与优化
基于大模型的 RAG 应用开发与优化具有以下特点: 优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数,还能使用自定义组件,只要遵循 LangChain 的接口规范。 2. 可扩展性:能利用 LangChain 的云服务部署和运行应用,无需担心资源和性能限制,也能使用分布式计算功能加速应用。 3. 可视化:通过 LangSmith 可视化工作流程,查看输入输出及组件性能状态,还能用于调试和优化,发现解决问题和瓶颈。 应用场景: 1. 专业问答:构建医疗、法律或金融等专业领域的问答应用,从专业数据源检索信息帮助大模型回答问题。 2. 文本摘要:构建新闻或论文等的摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要。 3. 文本生成:构建诗歌、故事等生成应用,从不同数据源检索灵感帮助大模型生成更有趣和创意的文本。 调优实践: 1. 更换大模型:从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工重命名文件对结果提升不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前效果虽有提升,但仍未达到可用水平,后续将尝试其他调优策略。
2025-02-25
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,RAG 正是为此引入的方法。它把信息检索组件和文本生成模型结合,能微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在诸多缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-02-25
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 研究人员引入 RAG 来完成这类任务,它将信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入后会检索相关支撑文档并给出来源,与原始提示词组合后送给文本生成器得到最终输出,能适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 LLM 存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-02-24
rag 模型微调
RAG(检索增强生成)模型微调相关知识如下: 通用语言模型通过微调可完成常见任务,如分析情绪和识别命名实体。对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 引入的 RAG 方法把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与输入原始提示词组合后送给文本生成器得到输出,能适应事实变化,获取最新信息并生成可靠输出。 通用的 RAG 微调方法如 Lewis 等人(2021)提出的,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。 在微调阶段: 检索器微调的常用方法包括直接微调、添加可训练的 Adapter 模块、LSR、LLM Reward RL。 生成器微调的主要方法包括直接微调、GPT4 蒸馏、基于反馈的强化学习。 协同微调是在 RAG 系统中同时对检索器和生成器进行微调,如 RADIT 分别对 LLM 和检索器进行微调。 同时,RAG 提高了嵌入模型质量,传统 RAG 解决方案中的问题也得到解决。
2025-02-24
如何搭建智能客服?
搭建智能客服主要包括以下步骤: 1. 起个好名字和给它头像 进入 Bot 主页并开始创建 Bot,网址:https://www.coze.cn/home 起个好名字,例如“善良有爱专业的幼师” 选择头像,AI 生成后若不喜欢可重新生成 补充:创建 Bot 有两种方式,点击创建 Bot 适合使用过 Bot 且想好名称和描述的人;Coze Assistant 适合第一次创建 Bot 的人,会引导创建并自动生成一些内容,包括名称、头像、人设与回复逻辑、开场白文案、开场白预设问题等。 2. 教她技能 如果通过 Coze Assistant 方式创建 Bot,Coze 助理已帮您教她技能,您可按需修改完善。 起好名字和头像后,进入教她技能环节。 先查看整理布局,再找到编排、预览与调试。 在编排的人设与回复逻辑教她技能,例如:认识自己、掌握专业技能、不能做什么等。 3. 让她教别人 找到高级下开场白,点击展开,填写开场白文案、开场白预置问题。 开场白预置问题可设置多个。 勾选用户问题建议:在 Bot 回复后,根据 Prompt 提供最多 3 条用户提问建议。 添加语音选择:让她不仅会写,还会通过语音跟您交流。 点击“发布”。 4. 选择发布平台 Bot Store:Bot 会出现在 Coze Bot 商店中,获取更多曝光和流量。 豆包:一键发布到豆包 App,随时随地与 Bot 对话。 飞书:在飞书中直接@Bot 对话,提高工作生产力。 微信客服:微信沟通更高效,本次分享重点部分也是发布到微信客服中,相比其他平台稍微复杂,下面会按步骤引导。 微信公众号(服务号):服务号针对企业,订阅号针对个人,两种账号不互通,服务号不支持个人注册,订阅号运营主体可为企业或个人,服务号运营主体只能是企业或其他机构。 微信公众号(订阅号):托管公众号消息,助力微信运营无间断。 掘金:在掘金社区 AI 聊天室圈子与 Bot 互动。 因为已经配置过,下面是重新注册微信客服和解绑后重新配置微信客服的流程。
2025-02-26
如何搭建AI客服
搭建 AI 客服可以按照以下步骤进行: 1. 创建大模型问答应用:通过百炼创建一个大模型应用,并获取调用大模型应用 API 的相关凭证。 2. 搭建示例网站: 创建应用:点击打开函数计算应用模板,参考相关图示选择直接部署、填写前面获取到的百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击页面左下角的创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。 3. 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情页。在代码视图中找到 public/index.html 文件,取消相关位置的代码注释。最后点击部署代码,等待部署完成。 验证网站上的 AI 助手:重新访问示例网站页面,此时会发现网站的右下角出现了 AI 助手图标,点击即可唤起 AI 助手。 4. 增加私有知识:准备一些私有知识,让 AI 助手能回答原本无法准确回答的问题,帮助更好地应对客户咨询。 以下是一些 Agent 构建平台: 1. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具,拓展 Bot 能力边界。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 以上信息提供了关于 6 个平台的概述,您可以根据自己的需求选择适合的平台进行进一步探索和应用。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-26
如何在拼多多接入AI客服
在网站上接入 AI 客服通常可以按照以下步骤进行: 1. 创建大模型问答应用:通过百炼创建一个大模型应用,并获取调用大模型应用 API 的相关凭证。 2. 搭建示例网站:通过函数计算,快速搭建一个网站,模拟您的企业官网或者其他站点。 3. 引入 AI 助手:通过修改几行代码,实现在网站中引入一个 AI 助手。 4. 增加私有知识:准备一些私有知识,让 AI 助手能回答原本无法准确回答的问题,帮助更好地应对客户咨询。 另外,基于 COW 框架实现 ChatBot 时需要注意: COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里实现方案。 基于相关教程,可实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入。本文只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 可选择多种模型,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等。 支持多种消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多部署方法,如本地运行、服务器运行、Docker 的方式。
2025-02-24
如何接入AI客服
接入 AI 客服主要有以下两种方式: 1. 在网站上接入 AI 助手: 创建大模型问答应用:通过百炼创建大模型应用,并获取调用大模型应用 API 的相关凭证。 搭建示例网站:通过函数计算,快速搭建一个网站,模拟企业官网或其他站点。 引入 AI 助手:修改几行代码,实现在网站中引入 AI 助手。 增加私有知识:准备私有知识,让 AI 助手能回答原本无法准确回答的问题,更好地应对客户咨询。 2. 在微信上接入 AI 客服: 微信公众号:Coze AI 平台支持与微信公众号对接,使 AI 机器人能够自动回复用户消息。 微信服务号:Coze AI 平台支持与微信服务号对接,提升服务效率。 微信客服:Coze AI 平台支持与微信客服对接,自动回答用户咨询,提高客服响应速度。 个人微信/微信群:最近 Coze 的国内版正式发布了 API 接口功能,使得直接对接个人微信甚至微信群成为可能。但对接国外版 Coze 平台需要部署的服务支持黑魔法。
2025-02-24
AI微信客服
以下是关于 AI 微信客服的相关信息: Coze AI 平台是一个 AI 智能体创作平台,可构建多个 AI 机器人并发布到多种社交平台。微信作为多功能社交平台,其不同功能存在差异: 个人微信/微信群:是日常聊天工具,但 Coze AI 平台此前不支持直接对接。不过,最近 Coze 国内版发布 API 接口功能,对接个人微信和微信群已成为可能。 微信公众号:是信息发布和用户管理平台,Coze AI 平台支持对接,使 AI 机器人能自动回复消息。 微信服务号:提供更丰富服务功能,Coze AI 平台也支持对接以提升服务效率。 微信客服:是企业与用户实时沟通渠道,Coze AI 平台支持对接,让 AI 机器人自动回答咨询,提高客服响应速度。 此外,还有以下搭建 AI 微信助手的方法: 搭建 OneAPI,用于汇聚整合多种大模型接口。 搭建 FastGpt,作为知识库问答系统,接入大模型。若不接入微信,搭建到此即可使用。 搭建 chatgptonwechat 接入微信,配置 FastGpt 将知识库问答系统接入。建议先用小号以防封禁风险。若想拓展功能,可参考 Yaki.eth 同学的教程。
2025-02-23
有没有关于使用coze制作在线客服的案例或教程
以下是关于使用 Coze 制作在线客服的案例和教程: 画小二:通过 Coze 定制开发插件案例,包括创建智能体、添加插件等,还可发布到微信成为专职客服技能,并有手把手的会员教程和 AIGC 商业案例实操课海报。 扣子案例合集:包含保姆级教程,如如何用扣子搭建一个免费好用的“图片转表格”AI 客服等。 Agent 相关比赛中的 Coze 相关教程:包括不同分享人的主题分享及流程安排,如大聪明、大圣、艾木、罗文、Itao 的分享,均有回放地址可供查看。
2025-02-21
AI智能体扣子搭建
以下是关于 AI 智能体扣子搭建的相关内容: 扣子是字节跳动旗下的 AI 应用开发平台,搭建智能体的门槛较低,无论有无编程基础都能快速搭建基于 AI 模型的多样化问答 Bot。 搭建智能体的步骤如下: 1. 创建一个智能体,输入人设等信息,并放上创建的工作流。 2. 配置完成后进行测试。但注意工作流中使用的插件 api_token 不能直接发布,可将其作为工作流的输入,用户购买后输入 token 再发布。 3. 搭建时首先需要想一个智能体的名字,然后写一段详细的介绍,越详细越好,因为会根据介绍智能生成符合主题的图标,最后使用 AI 创建一个头像即可。 扣子还提供了丰富的插件、工作流、知识库等功能来增强 Bot 的能力和交互性。例如菠萝作词家智能体,是专为音乐创作设计的辅助工具,能理解分析用户输入的信息生成歌词。 扣子官网:
2025-02-26
我打算用windsurf、coze、飞书多维表格来搭建自动流程,重新为我推荐相关学习内容
以下是为您推荐的相关学习内容: 一泽 Eze:Coze+飞书多维表格,打造专属 AI 智能体,享受 10 倍知识管理效率 逐步搭建 AI 智能体: 搭建选择内容推荐流,用于根据用户输入的“想看 xxx 内容”,在飞书多维表格的稍后读存储地址中检索现有的收藏记录,匹配符合阅读兴趣的内容记录。 新建工作流「recommendRead」,根据弹窗要求自定义工作流信息。 工作流全局流程设置: 4.1 开始节点:输入想阅读的内容主题。收到用户输入的“想看 xxx 内容”这类指令即开始流程,判断哪些用户输入是在交代想阅读的内容主题交由外层 bot 的大模型判断。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点并设置。 4.3 插件节点:添加「飞书多维表格search_records」插件,设置{{app_token}}参数,在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回所需查询结果,也可通过额外配置定向检索未读状态的收藏记录。 4.4 大模型节点:采用批处理对检索出来的收藏记录逐个进行相关性匹配,可优化用户提示词提升匹配精准度。 输入观点一键生成文案短视频 基于其它博主开源的视频生成工作流做了功能优化,实现视频全自动创建。 功能:通过表单输入主题观点,提交后自动创建文案短视频,并推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程) 大体路径: 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 发布 coze 智能体到飞书多维表格。 在多维表格中使用字段捷径,引用该智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。
2025-02-26
为我提供相关的学习课程,方便我可以高效上手学习,零基础代码,开始去学习搭建自己的工作流
以下是为您提供的相关学习课程,方便您零基础代码学习并搭建自己的工作流: 8 月 13 日 ComfyUI 共学: 讨论了 Config UI 的学习需求、教程分享、部署问题、应用场景,以及相关活动的规划。 分享了 Config UI 工作流在不同场景的应用、优势、弊端以及学习方法,还提及了相关的分享会和开源社区的情况。 探讨了 CONFIUI 的使用、工作流分享、报错问题及解决方案,还有相关课程的设计安排。 讨论了郭佑萌在 AI 绘图领域的工作经历,包括项目实践、技术调研、培训以及未来的教学计划等内容。 介绍了 AI 绘图课程的规划。 课程从零基础开始,从认识 config、UI 及行业概念讲起,逐步深入到环境部署、底层技术概念、提示词等内容。 介绍了 config 牛角尖大王系列,包括 control net、IP Adapter、图像放大、mask 等部分,阐述了它们的作用和玩法。 学习相关知识后初步具备搭建复杂工作流能力,会拆解分析网上热门工作流。 报错问题可分为网络、模型、工作流搭建、环境等方面,安装新插件时可参考项目地址的 requirement 文档。 规划了实战案例思路。 ComfyUI 共学快闪: 王蓉🍀🎈Wang Easy 基础搭建和转绘。 唯有葵花向日晴基础教程,工作流开发,实际应用场景。 热辣 HuolarrAI 系统课私聊图生视频。 咖菲猫咪基础教程/工作流搭建思路/各版本模型使用的优缺点。 傅小瑶 Lucky 如何制作多人转绘视频。 云尚工作流节点搭建思路。 FǎFá 热门节点功能,搭建。 森林小羊基本报错解决方式及基础工作流逻辑分析。 苏小蕊基础教程。 Sophy 基础课程。 蜂老六装一百个最新常用插件后如何快速解决冲突问题。 阿苏工作流框架设计。 aflyrt comfyui 节点设计与开发。 老宋&SD 深度解释虚拟环境部署和缺失模型的安装。 Liguo 模型训练。 啊乐福基础课程。 塵优秀案例。 风信基础课程➕平面设计应用场景。 北南基础课程。 视频工作流框架设计。 Damon 基础课程。 渔舟基础课程+工作流搭建思路。 乔木船长工作流。 ☘️基础教程。 ☘基础教程。 工作流设计+典型案例剖析。 麒白掌工作流搭建。 OutSider 风格迁移。 吴鹏基础+工作流搭建。 拾光工作流基础搭建从入门到精通。 茶浅浅。视频转绘/节点工作流介绍。 百废待.新(早睡版)工作流从入门到进阶。 电商应用场景。 AI 女友麦洛薇(0 代码 comfyui 搭建,知识图谱稳定人设,无限上下文,永久记忆,可接入飞书): 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的 AI 女友工作流,也可以直接将工作流文件拖拽到 Comfyui 界面中一键复刻麦洛薇机器人。 飞书机器人创建: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg。
2025-02-26
零代码基础的业务小白如何搭建自己的AI自动化工作流,方便提升效率
对于零代码基础的业务小白搭建自己的 AI 自动化工作流以提升效率,您可以参考以下步骤: 1. 利用 Comfyui 界面: 打开 Comfyui 界面后,右键点击,找到 Comfyui LLM party 的目录。 您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 启动 ollama: 从 ollama 的 github 仓库找到对应版本并下载。 启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 如果 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 3. 对于图片相关的工作流,比如 0 基础手搓 AI 拍立得: 上传输入图片。 理解图片信息,提取图片中的文本内容信息。 进行场景提示词优化/图像风格化处理。 返回文本/图像结果。 为了简化流程,可以选择 Coze 平台实现零代码版本的工作流。搭建流程时,主要关注以下几个步骤: 上传图片:将本地图片转换为在线 OSS 存储的 URL,以便在平台中进行调用。 插件封装:将图片理解大模型和图片 OCR 封装为工作流插件,实现便捷调用,如果市场里面有可以直接使用。 4. Coze 的工作流是一种可视化的方式,允许用户组合各种功能模块,如插件、大语言模型、代码块等,从而实现复杂和稳定的业务流程编排。具体来说: 工作流由多个节点组成,包括 Start 节点和 End 节点。用户可以在这些节点之间添加各种功能模块,构建出所需的业务流程。 工作流支持丰富的功能模块,包括调用大语言模型进行文本生成、调用插件进行数据处理等。用户可以根据需求灵活组合这些模块。 工作流的创建和编辑都可以通过可视化的拖拽界面完成,无需编写代码。这大大降低了工作流搭建的门槛。 创建好的工作流可以直接集成到 Coze 的聊天机器人中使用,实现复杂的业务逻辑。 总的来说,Coze 的工作流为用户提供了一种可视化、低代码的方式,来快速搭建满足业务需求的 AI 应用和服务。这极大地降低了开发门槛,让更多人可以利用 AI 技术来提升工作效率。但请注意,上述内容由 AI 大模型生成,请仔细甄别。
2025-02-26
智能体提示词
以下是关于智能体提示词的相关内容: 创建智能体: 1. 打开扣子官网(https://www.coze.cn/),在“画小二智能小助手”Coze商店体验地址(https://www.coze.cn/store/bot/7371793524687241256?panel=1&bid=6cqnnu5qo7g00)点击创建 Bot,在对话框中工作空间选择“个人空间”,命名为画小二智能小助手。 2. 设置画小二助手的提示词。 输入观点一键生成文案短视频: 1. Coze 智能体创建工作流中,“开始”节点有 4 个输入变量,分别为 idea_txt(主题观点)、left_to_txt(画面左上角的文字)、right_to_txt(画面右上角的文字)、img_prmpot(画面中间图片生成提示词),注意变量名称要和智能体中提示词的变量对应一致,方便接收用户传入的参数。 2. “大模型”节点使用公认的 DeepSeek R1 模型,提示词要求不复杂,说出需求即可,格式可用大白话说出来。 3. “文本”节点将文案分句,可按“句号”分句,也可根据文案格式选择不同方式。 4. “图像生成”节点使用官方插件,模型选“LOGO 设计”,若要生成全景图,建议选其它插件。 5. “抠图节点”将上个节点生成的图片进行抠图。 工具教程:清影: 为了让大家快速上手,制作了一个帮写视频提示词的智能体,输入简单的场景就可以获得 3 个优质提示词。使用地址:
2025-02-26
扣子的智能体发布时,可以不公开发布在扣子商店,但可以被其他人访问吗
扣子的智能体发布时,必须公开发布在扣子商店才能被其他人访问。根据相关活动规则,参赛选手需在规定时间(如 2024/11/15 23:59 之前)将智能体上架到扣子商店,发布成功后需等待审核,确认发布好后提交链接参赛。优质的智能体将作为模板上架到扣子官方网站的模版库中供其他开发者体验、使用。
2025-02-26
扣子的智能体发布时,可以不公开在扣子商店吗
扣子的智能体发布时可以选择不公开在扣子商店。在相关配置中,有取消勾选发布到扣子商店的选项,例如在智能体配置的最后一步,可以选择“跳过并发布”,然后取消勾选发布到 coze 商店,仅选择发布为 API 即可。但需要注意的是,参赛选手参加某些活动时,如火山引擎开发者社区联合扣子开启的 Show Me 扣子 AI 挑战赛,要求参赛选手于 2024/11/15 23:59 之前(社区参与可延期至 11 月 24 日 23:59 前)将作品上架到扣子商店。同时,参赛的智能体需要满足一系列要求,如 Prompt 文明用语、插件不侵犯第三方权益、知识库内容合法等。
2025-02-26
aigc智能体技能提升 ,需要掌握哪些知识
要提升 AIGC 智能体技能,需要掌握以下知识: 1. 对 AI 及提示词工程有清晰的理解。 2. 掌握 Python 语言,以便能搓更多智能体。 3. 了解向量数据库,如 Milvus 等。 4. 熟悉 Web 框架,如 FastAPI 框架,掌握流传输、负载限流等相关技术,实现与前端或业务后端的接口对接。 5. 学会提出具体且有详细背景信息的问题,以从 ChatGPT 等模型获得更精准的答案。 6. 不断积累行业领域知识,达到能较好操纵 AI 完成复杂任务的程度。
2025-02-26